包含关键字 typecho 的文章

1)引擎Quality设置里的Texture Quality和Global Mipmap Limit有什么区别
2)小游戏上在动画状态机中替换动作会产生较大消耗怎么办


这是第466篇UWA技术知识分享的推送,精选了UWA社区的热门话题,涵盖了UWA问答、社区帖子等技术知识点,助力大家更全面地掌握和学习。

UWA社区主页:community.uwa4d.com
UWA QQ群:793972859

From 问答社区

Q:引擎Quality设置里的Texture Quality好像被删掉了?这个新的叫Global Mipmap Limit的设置项看上去是替代?有什么区别吗?

A:Global Mipmap Limit确实替换了Texture Quality,或者说是该功能的升级版,除了仍然是按照设置从Mipmap第0层开始移除外,额外增加了使纹理按照所在Mipmap Limit Group剔除Mipmap层级的设置;并且需要针对具体纹理开启Use Mipmap Limits并设置Group。使用上远比之前Texture Quality的一刀切做法更实用,但相比Texture Streaming的灵活自动处理还是需要投入一定人工成本针对分级进行设置。

欢迎大家转至社区交流:
https://answer.uwa4d.com/question/69ae6e7eabed2e338a7dac66


From 问答社区

Q:我们在小游戏项目中使用Animator Override Controller替换动作会产生较大的开销,有什么优化方案吗?

A:替换动画时会对所有的动画重新计算绑定,因此在动画数量本身就很多的情况下,开销也会相应偏高;建议尽可能降低动画的数量,从源头减少合并运算的数据量,并适当削减动画精度,优化动画曲线数据。

这个是大体思路,不过还是比较笼统的,也看看大家有没有什么更好的建议可以取取经。

欢迎大家转至社区交流:
https://answer.uwa4d.com/question/69ae3139abed2e338a7dac65

无论是社区里开发者们的互助讨论,还是AI基于知识沉淀的快速反馈,核心都是为了让每一个技术难题都有解、每一次踩坑都有回响。本期分享分别来自UWA AI问答和UWA问答社区,希望这些从真实开发场景中提炼的经验,能直接帮你解决当下的技术卡点,也让你在遇到同类问题时,能更高效地找到破局方向。

封面图来源于网络


今天的分享就到这里。生有涯而知无涯,在漫漫的开发周期中,我们遇到的问题只是冰山一角,UWA社区愿伴你同行,一起探索分享。欢迎更多的开发者加入UWA社区。

UWA官网:www.uwa4d.com
UWA社区:community.uwa4d.com
UWA学堂:edu.uwa4d.com
官方技术QQ群:793972859

在企业增长越来越依赖客户精细化运营的今天,CRM软件 已经不再是“大公司专属工具”,而是越来越多中小企业、销售团队和服务型企业的核心管理系统。很多企业在数字化转型过程中,都会先问一个问题:什么是CRM软件?

简单来说,CRM软件 是一种帮助企业管理客户信息、销售流程、商机跟进和客户服务的系统工具。它的目标很明确:让客户资源更清晰、销售过程更可控、团队协作更高效、企业增长更可持续。

下面就从 CRM软件的定义、核心功能、实际作用以及选型方法 几个方面,带你一次性读懂 CRM 系统。

image.png

🧭 什么是CRM软件?

先把概念讲清楚。CRMCustomer Relationship Management 的缩写,中文通常叫做 客户关系管理系统。因此,CRM软件也可以理解为:企业用来管理客户全生命周期关系的一套数字化工具。

CRM软件的核心定义

CRM软件不是简单的“客户通讯录”,也不是只能给销售部门使用的工具。一个成熟的 CRM 系统,通常会覆盖以下几个管理环节:

  • 客户信息管理:统一保存客户资料、联系人、沟通记录
  • 销售流程管理:跟进线索、推进商机、管理成交过程
  • 市场活动管理:承接营销线索,提升转化效率
  • 客户服务管理:记录售后问题、服务进度和客户满意度
  • 数据分析与预测:通过报表看销售表现、客户价值和业务趋势

从本质上说,CRM软件做的事情就是两件事:

  1. 把客户数据集中起来
  2. 把客户关系经营起来

这两件事听起来不复杂,但做不好,企业往往会在增长路上踩很多坑。客户资料散落在表格里、员工离职带走客户、销售跟进靠记忆、管理层看不到真实业务进度——这些问题,正是很多企业开始寻找 CRM 软件的原因。


🔍 CRM系统有哪些核心功能?

理解“什么是CRM软件”之后,下一步就要看:CRM系统到底能做什么。

不同厂商的产品能力会有差异,但一套主流的 CRM 软件,通常都会包括以下几个核心功能。

1. 客户信息集中管理

这是 CRM 最基础、也最重要的功能之一。

企业可以把客户名称、联系人、电话、邮箱、跟进记录、成交历史、来源渠道等信息,统一沉淀在系统中,避免数据分散在 Excel、微信聊天记录或个人电脑里。

它带来的直接价值是:

  • 客户资料更完整
  • 团队协作更顺畅
  • 员工交接更方便
  • 降低客户资源流失风险

对于销售团队来说,这意味着“客户不再跟着个人走,而是沉淀为企业资产”。

2. 销售线索与商机管理

企业获取客户后,并不意味着马上就能成交。中间通常会经历线索识别、客户沟通、需求确认、方案报价、合同谈判、成交回款等多个阶段。

CRM软件可以帮助企业把这些过程标准化、流程化:

  • 记录每一条销售线索来源
  • 区分高意向与低意向客户
  • 分配销售负责人
  • 设置商机阶段
  • 跟踪每次跟进记录
  • 预测成交概率和销售额

这样一来,销售管理不再依赖“经验主义”,而是形成可追踪、可分析、可优化的流程。

3. 销售自动化

很多销售团队每天会做大量重复工作,比如:

  • 手动录入客户信息
  • 提醒自己回访客户
  • 更新商机状态
  • 整理报表
  • 给不同客户发送跟进邮件

这类工作很耗时间,也容易遗漏。CRM系统的自动化能力,可以帮助企业把重复动作交给系统处理,例如:

  • 自动分配销售线索
  • 自动提醒跟进时间
  • 自动发送邮件或短信
  • 自动创建任务
  • 自动更新流程状态

这能显著提升团队效率,让销售人员把更多时间花在真正有价值的沟通和成交上。

4. 销售报表与数据分析

很多企业有客户,也有销售动作,但管理层依然会问:

  • 本月新增了多少线索?
  • 哪个渠道来的客户质量更高?
  • 哪个销售人员转化率更好?
  • 哪个阶段流失客户最多?
  • 未来的销售预测是否可信?

CRM软件通过可视化报表和数据分析功能,可以帮助管理者快速了解业务运行情况。

常见分析维度包括:

  • 线索数量与来源
  • 商机数量与阶段分布
  • 成交金额与成交周期
  • 销售人员业绩表现
  • 客户活跃度与复购情况

数据一旦清晰,管理决策就不再靠“拍脑袋”。

5. 客户服务与客户生命周期管理

真正优秀的客户关系管理,不只是“成交前”,还包括“成交后”。

CRM系统不仅可以记录售前沟通,也可以支持售后服务、客户维护、复购提醒和客户满意度管理。尤其对于服务周期长、复购率重要的行业来说,CRM不仅影响成交,更直接影响客户留存和长期收益。

换句话说,CRM管理的是 客户全生命周期价值,而不仅仅是一次交易。


🚀 CRM软件对企业有哪些作用?

如果说功能回答的是“能做什么”,那作用回答的就是“为什么值得做”。

CRM软件之所以被越来越多企业采用,不是因为它“看起来高级”,而是因为它确实能解决经营中的关键问题。

1. 提升客户管理效率

当客户量越来越多时,靠人工表格和聊天记录管理,几乎一定会出现信息混乱、跟进遗漏、责任不清的问题。

CRM软件通过统一管理客户数据,能够让企业更高效地掌握客户状态,减少低效沟通和重复劳动。

2. 提高销售转化率

销售转化率低,往往不是因为客户太少,而是因为:

  • 跟进不及时
  • 客户需求记录不完整
  • 销售流程不规范
  • 重点客户没有优先处理

CRM系统可以帮助销售团队建立更清晰的跟进机制,让每一个销售机会都得到更合理的推进,从而提高成交概率。

3. 避免客户资源流失

很多企业最怕的一件事,是客户掌握在个人手里。一旦员工离职,客户资料、沟通记录、报价历史可能都跟着消失。

CRM软件把客户信息沉淀到企业系统中,让客户关系真正成为企业资产,而不是“个人资源”。

4. 提升团队协同能力

销售、市场、客服之间经常存在信息断层。市场拿到线索,销售不了解来源;销售签单之后,客服不清楚承诺内容;管理层要数据时,各部门口径不一致。

CRM软件能够打通这些环节,让客户信息在团队之间透明流转,提升协同效率。

5. 支持企业数字化增长

当企业进入增长阶段,管理方式不能一直停留在“靠人盯、靠经验推”的状态。CRM系统通过流程化、标准化、数据化的方式,让企业具备更稳定的增长基础。

这也是为什么越来越多企业在数字化转型中,优先部署 CRM 软件。


🏢 哪些企业适合使用CRM软件?

很多人会误以为 CRM 只适合大型企业。事实恰恰相反,只要企业有客户管理需求,就有使用 CRM 软件的价值。

常见适用企业包括:

  • 中小企业:需要规范客户管理流程,摆脱 Excel 管理混乱
  • 销售驱动型企业:如软件、制造、咨询、教育、金融服务等
  • 服务型企业:重视客户维护、续费、复购和满意度
  • 多销售团队企业:需要统一管理线索、商机和业绩
  • 处于增长阶段的企业:希望提升管理效率和数据决策能力

尤其当企业出现下面这些信号时,通常说明已经很需要 CRM 了:

  • 客户信息分散,查找困难
  • 销售跟进过程不透明
  • 团队协作效率低
  • 客户资源依赖个人
  • 管理者看不到真实销售漏斗
  • 报表统计耗时且不准确

如果这些问题已经在日常经营中反复出现,那么 CRM 软件几乎不是“要不要上”的问题,而是“什么时候开始更合适”。


🧩 企业该如何选择CRM软件?

理解了“什么是CRM软件”,也知道了它的功能和作用,接下来最关键的问题就是:企业该怎么选?

这一步很重要。因为 CRM 选得合适,能够真正提升业务效率;选得不合适,就容易变成“买了但没人用”的系统摆设。

1. 看是否符合企业业务流程

不同企业的销售流程差异很大。标准化程度高的行业,可能需要固定流程;项目型销售企业,则可能更重视灵活配置能力。

因此,选择 CRM 软件时,首先要看它能否匹配你的实际业务场景,例如:

  • 线索到商机的转化流程是否可配置
  • 销售阶段是否可自定义
  • 字段、模块、页面是否支持灵活调整
  • 是否能适应不同团队的管理方式

2. 看是否易用,团队能否快速上手

一个再强大的 CRM,如果界面复杂、学习成本高,最终也很难被团队真正使用。

好的 CRM 软件应该具备:

  • 界面清晰
  • 操作逻辑直观
  • 移动端体验良好
  • 培训和上线成本可控

系统不是为了“展示功能多”,而是为了让团队愿意天天用。

3. 看自动化和扩展能力

随着企业发展,需求一定会变化。因此,CRM 不仅要能满足现在,还要能支持未来。

建议重点关注:

  • 是否支持工作流自动化
  • 是否支持与邮件、电话、表单、网站等集成
  • 是否支持 API 和第三方应用扩展
  • 是否能与营销、客服、财务等系统打通

4. 看数据分析和管理能力

CRM的价值不仅是记录数据,更重要的是帮助管理者看懂业务。

一个优秀的 CRM 系统,应该支持:

  • 实时销售漏斗分析
  • 多维度业绩统计
  • 自定义报表
  • 销售预测
  • 管理驾驶舱

5. 看成本是否合理、长期投入是否可控

选 CRM 不应该只看购买价格,还要综合考虑:

  • 部署成本
  • 培训成本
  • 后续扩展成本
  • 运维成本
  • 团队使用门槛

价格过低的系统,可能功能有限;价格过高、实施复杂的系统,又可能不适合中小企业。最好的选择通常不是“最贵的”,而是“最适合业务发展阶段的”。


🌟 为什么越来越多企业选择Zoho CRM?

在众多 CRM 软件中,Zoho CRM 之所以受到越来越多企业关注,一个重要原因在于:它既具备成熟 CRM 的核心能力,又兼顾了灵活性、易用性和性价比,能够适配不同发展阶段的企业需求。

Zoho CRM 的几个核心优势

能力维度Zoho CRM表现适合企业关注点
功能完整性覆盖线索、客户、商机、自动化、报表等核心场景满足销售管理全流程
灵活配置能力支持字段、模块、流程、页面自定义适应不同业务模式
自动化能力支持工作流、任务提醒、审批流程等提升团队效率
数据分析能力提供多维报表与销售预测支持管理决策
生态集成能力可与邮件、营销、客服等系统协同适合数字化扩展
成本友好度相较部分传统 CRM 更易控制投入中小企业也能较快落地

这张表的重点很明确:Zoho CRM 不是只解决“记录客户”的问题,而是帮助企业搭建一套可持续运行的客户管理体系。

Zoho CRM 更适合哪些企业?

Zoho CRM 特别适合以下几类企业:

  • 正在从 Excel 管理升级到系统管理的企业
  • 需要规范销售流程的成长型企业
  • 希望用较合理成本实现数字化管理的中小企业
  • 需要灵活定制业务流程的B2B企业
  • 希望打通销售、营销和服务环节的企业

对于很多企业来说,CRM 项目的关键不在于“功能越多越好”,而在于 能否真正落地、能否长期使用、能否支撑业务增长。从这个角度看,Zoho CRM 的优势非常实际,不花哨,但很能打。


💡 结语:CRM软件不是“管理工具”,更是增长工具

回到最初的问题:什么是CRM软件?

它不仅是一套客户信息管理系统,更是一种帮助企业提升销售效率、优化客户关系、沉淀数据资产和推动持续增长的经营工具。

对于企业来说,CRM 的意义不只是“把客户资料放进系统”,而是:

  • 把客户资源变成企业资产
  • 把销售流程变得标准可控
  • 把团队协作变得更高效
  • 把经营决策建立在真实数据之上

而在选择 CRM 软件时,企业更应该关注的是:是否适合自己的业务模式、是否容易落地、是否能够伴随企业长期发展。

Zoho CRM 正是这样一款兼具功能、灵活性与性价比的客户关系管理系统。对于希望建立高效销售体系、提升客户管理水平的企业而言,Zoho CRM 是一项值得认真考虑的数字化投入。

在运维与业务开发中,IP定位是最常用的基础操作,几乎每天都能用到。很多同学先用免费接口做原型,上线后却频繁出现定位不准、字段缺失、并发超限等问题。作为一线运维,判断IP查询结果是否可靠、如何用工具做交叉验证,是必须掌握的硬技能。
IP数据云专注于为企业和运维人员提供稳定、精准、可校验的IP数据服务,核心目标是让每一次IP查询都有据可依、可信可用,通过多维度数据比对与标准化接口,帮助用户快速判断信息可靠性,实现高效交叉验证。

一、什么样的IP查询结果才算可靠?

先建立判断标准,满足以下几点,可信度才够高:

1.定位结果稳定不漂移

同一IP多次查询,省市、区县、经纬度信息基本一致,不会随机跳转到其他省份或城市。

2.字段完整且逻辑能对上

除基础地域外,还能提供运营商、行政区划、经纬度、是否机房 / 基站 / 代理IP,且互相匹配。

3.数据更新及时

能识别新号段、动态IP、骨干网调整,不会出现多年未更新的老旧库数据。

4.支持多源交叉验证

可与多个IP库比对,结果一致性高,出现冲突时有置信度参考。

二、实操:如何快速验证IP是否可靠?

1. 人工快速验证(适合排查)

同IP在2–3个平台分别查询,看城市、运营商是否一致
核对经纬度是否落在对应城市范围内
检查是否为机房IP、基站IP、专线IP

2. 自动化交叉验证(适合接入系统)

思路:同时请求多个IP接口,对关键字段做比对。
这里给一段极简可运行的伪代码逻辑,可直接改成Python/Java:

def check_ip_reliable(ip):
    # 多数据源查询
    result1 = query_from_ip_data_cloud(ip)  # 主数据源
    result2 = query_from_other_provider(ip)
    
    # 交叉校验
    city_ok = (result1.city == result2.city)
    isp_ok = (result1.isp == result2.isp)
    reliable = city_ok and isp_ok
    
    return {
        "ip": ip,
        "reliable": reliable,
        "city_match": city_ok,
        "isp_match": isp_ok
    }

在我们团队内部,会把IP数据云作为主验证数据源,因为它一次返回归属地、风险、经纬度、行政区划等完整信息,非常适合做自动化比对。
我们将其接入网关与风控系统,当多源不一致时自动标记为“待复核”,避免误判。

三、哪些坑会让IP结果不可靠?

1.免费公开库老旧

数月甚至数年不更新,新号段、动态IP完全不准。

2.数据源单一

只靠一个库,一旦漂移就全错。

3.只定位到城市,无区县/经纬度

无法做精细化运营与风控。

4.不区分机房/家庭/基站

容易把机房IP当成普通用户。

四、IP可靠性判断&交叉验证对照表

五、总结与建议

  • 测试/小流量:可用免费接口做快速验证。
  • 生产/风控/运营:必须使用多源交叉验证。
  • 架构上:主数据源 + 备数据源 + 自动比对 = 高可靠IP服务。
    所以说,判断 IP 数据靠不靠谱,真不是随便查一下就完事。IP 数据云给咱们技术人提供精准、稳定、能交叉验证的 IP 查询服务,并持续优化多源数据融合与实时更新能力,就是为了我们在日常工作中能够快速判断IP信息可信度,用最简单的工具实现高效验证。

TLDR:

  • 新增 free 模块文档,跨平台查内存一行命令搞定
  • x claude 新增阿里云百炼、百度千帆、腾讯云 coding 套餐接入支持

🚀 x-cmd v0.8.7 Beta 更新详情

free 💻

free 模块增加文档 —— 不同系统查个内存,命令差这么多。

Linux 用 free,macOS 用 vm_stat,输出格式和字段含义完全不同。
写跨平台脚本时要分别处理,而且 macOS 的内存计算方式比 Linux 复杂得多——有内存压缩、wired、active、inactive 等概念。

x free 统一入口,自动识别系统,输出格式也帮你规范化好了。

x free              # 显示内存使用情况
x free --csv        # CSV 格式输出
x free -s 2         # 每 2 秒刷新一次

跨平台脚本再也不用写一堆系统判断了。

claude 🤖

有用户提需求,想在 claude-code 上更方便地使用国内三大云厂商的 coding 套餐。
安排!新增三个专用命令,阿里云百炼、百度千帆、腾讯云,一键接入妥妥的。

两种使用方式:

  1. 独立命令(推荐):直接启动 Claude Code 并接入对应厂商
x claude ali        # 启动并接入阿里云百炼
x claude baidu      # 启动并接入百度千帆
x claude tencent    # 启动并接入腾讯云
  1. use 命令:切换并永久配置 Claude Code 接入的模型提供商
x claude use ali        # 切换到阿里云
x claude use --project ali   # 写入项目配置,仅当前项目生效

你可以使用 x claude use other 接入更多第三方模型提供商(如本地 ollama 部署的模型):

x claude use other "http://localhost:11434" <api_key> "gpt-oss:20b"

使用前记得先设置 API Key 哦。

⬆️ 如何升级

现有用户可以通过以下命令快速切换至 Beta 版本进行体验:

x upgrade beta

如果你没有安装 x-cmd, 只需要打开你的终端:

eval "$(curl https://get.x-cmd.com)"

x-cmd 是一个一站式的命令行工具集,其强大的功能可以为人类用户和AI共同使用。它还简化了很多工具的安装方法。
马上安装,让 x-cmd 协同 AI 成为你的最强助手,实现生产力翻倍!

🤝 开发者反馈

如果您在自定义配置或代理设置中遇到任何疑问,欢迎前往 GitHub Issues 提交反馈,共同完善 X-CMD 生态。

引言

随着混合办公模式的全面普及,企业正面临着日益严峻的网络安全挑战。零信任等先进安全框架被广泛应用于强化安全边界,但密码依旧是保护企业关键资产的最后一道防线。

过去几年间,全球已有超 5 亿个密码被泄露,特权滥用与内部威胁更是愈演愈烈。HYPR 与《网络安全内幕》的联合报告显示,96% 的受访者希望摒弃共享密钥认证方式。远程办公的兴起,让无密码管理成为企业保护特权资源、规避凭证滥用风险的重要方向。

一、什么是无密码管理?

无密码管理并非彻底淘汰密码,而是指无需用户手动输入特权凭证,即可执行各类管理操作。

其核心逻辑十分简单:只要特权凭证不以明文或硬编码形式暴露给用户,就能从根源上杜绝凭证被泄露、盗用的风险。在无密码管理模式下,用户会被自动完成身份认证,并被精准分配访问机密资产的对应权限。

用户可获得访问特权应用、数据库、操作系统、虚拟机等多层授权资产所需的全部权限,其中包括网络认证权限。这一模式能有效避免凭证共享或复用,让用户远离钓鱼攻击、暴力破解等威胁。同时,用户的认证数据不会存储在终端设备或浏览器中,进一步提升了安全性。

二、无密码管理与特权访问管理(PAM)的关联

无密码管理是特权访问管理(PAM)的核心应用场景,它打通了特权会话管理、安全远程访问和用户账户管理的壁垒。

与基于生物特征、PIN 码的无密码认证不同,无密码管理支持用户通过 SSH、VNC、SQL、RDP 等安全远程会话执行管理操作,全程无需手动输入凭证。

在企业日常运营中,普通用户有时需要临时获得管理员权限,例如 Linux 用户安装第三方软件、配置文件、传输专有文件等。传统模式下,企业会为用户分配备用管理员账户或临时提升权限,这会增加攻击面,引发安全风险。

无密码管理通过即时特权访问机制解决这一问题:基于用户请求的有效性和当前权限等级,为用户临时授予最小必要权限,任务完成后立即撤销权限,恢复账户默认状态。

三、企业实施无密码管理的核心价值

降低安全风险:避免特权凭证暴露,从根源上防范钓鱼、暴力破解等攻击。

提升管理效率:无需手动维护密码数据库,减少密码重置、轮换的人力成本。

优化用户体验:用户无需记忆复杂密码,通过自动认证即可快速访问所需资源。

强化合规能力:所有特权操作可被实时监控、审计,满足行业合规要求。

四、卓豪 Password Manager Pro 助力企业实现无密码管理

ManageEngine Password Manager Pro 是基于特权访问管理(PAM)打造的安全管控模式,核心是避免特权凭证暴露,而非淘汰密码,助力企业应对混合办公下的网络威胁。
图片
自动认证授权:用户无需手动输入凭证,经身份验证后即可获得访问特权资源的权限,支持 SSH、RDP 等安全远程会话。
即时特权管控:遵循最小权限原则,按需为普通用户分配临时权限,任务完成后自动回收并重置密码。
全流程安全审计:实时监控特权操作,搭配加密存储与自动轮换机制,杜绝密码共享、泄露风险,满足合规要求。

Password Manager Pro 的一款企业级内部密码管理工具能有效减少攻击面,兼顾运维效率与安全防护,是企业迈向无密码时代的可靠方案。

在过去的五篇文章中,我们从宏观价值聊到了底层算法(OT),从视觉感知(Presence)聊到了性能优化(Fragments)与安全管控。相信你已经对 SpreadJS 协同插件的强大能力有了深厚的理论积淀。

然而,“纸上得来终觉浅,绝知此事要躬行”。对于企业级开发者而言,最关心的是:如何将这些模块串联起来,构建出一个生产可用的协作平台?

作为本系列文章的收官之作,我们将回归代码实战。通过一个“从零到一”的完整路径,带你搭建一套集成多人协作、光标同步、数据持久化及权限管理的企业级 SpreadJS 协同设计器。

一、 准备工作:环境与依赖

在开始之前,请确保你的开发环境已安装 Node.js v16+

我们需要构建两个端:

  1. 服务端(Server):负责分发消息、处理 OT 冲突和持久化数据。
  2. 客户端(Client):即用户浏览器端的 SpreadJS 编辑器。
    在这里插入图片描述

    1. 初始化项目

mkdir spread-collaboration-demo
cd spread-collaboration-demo
npm init -y

2. 安装核心依赖包

SpreadJS 协同采用了模块化设计,我们需要安装以下关键包:

  • @grapecity-software/js-collaboration: 协同服务器核心。
  • @grapecity-software/js-collaboration-ot: OT 冲突处理模块。
  • @grapecity-software/spread-sheets-collaboration: SpreadJS 专用 OT 类型。
  • @grapecity-software/js-collaboration-presence: 在线状态广播。
  • @grapecity-software/js-collaboration-ot-sqlite: 用于演示的数据持久化适配器(生产环境建议用 Postgres)。

二、 第一步:搭建“大脑”——协同服务器

服务端不仅是消息的中转站,更是数据的“真理来源”。

在这里插入图片描述

1. 初始化协同服务器

在项目根目录创建 server.js。我们需要注册 SpreadJS 专用的 OT 类型,这样服务器才能理解表格的“插入行”或“设置公式”等语义。

import { Server } from "@grapecity-software/js-collaboration";
import * as OT from "@grapecity-software/js-collaboration-ot";
import { type } from "@grapecity-software/spread-sheets-collaboration"; // 引入 SpreadJS 专用 OT 类型

// 1. 注册 SpreadJS 协同类型
OT.TypesManager.register(type);

// 2. 创建协同服务器实例(支持集成到现有的 Express 或 http 服务)
const server = new Server({ port: 8080 });

// 3. 初始化 OT 文档服务(启用文档同步能力)
server.useFeature(OT.documentFeature());

console.log("协同服务器已在 8080 端口启动...");

2. 配置数据持久化

为了确保协同数据在服务器重启后不丢失,我们需要配置数据库适配器。
在这里插入图片描述

import sqlite3 from "sqlite3";
import { SqliteDb } from "@grapecity-software/js-collaboration-ot-sqlite";

const db = new sqlite3.Database("./collab_data.db");
const sqliteDbAdapter = new SqliteDb(db);

// 初始化 DocumentServices 时传入数据库适配器
const documentServices = new OT.DocumentServices({ db: sqliteDbAdapter });
server.useFeature(OT.documentFeature(documentServices));

三、 第二步:搭建“视窗”——客户端编辑器

客户端的核心任务是:初始化 SpreadJS,并将其与协同服务器建立连接。

1. 建立连接与文档初始化

在客户端代码中,我们通过 Client 类连接服务器,并使用 SharedDoc 管理共享文档。

import { Client } from "@grapecity-software/js-collaboration-client";
import { SharedDoc } from "@grapecity-software/js-collaboration-ot-client";
import { type, bind } from "@grapecity-software/spread-sheets-collaboration-client";

// 1. 连接服务器并加入指定房间
const connection = new Client("ws://localhost:8080").connect("room-001");

// 2. 创建共享文档实例并获取数据
const doc = new SharedDoc(connection);
await doc.fetch(); 

// 3. 如果是新文档,则初始化内容
if (!doc.type) {
    await doc.create(workbook.collaboration.toSnapshot(), type.uri);
}

// 4. 核心步骤:将 SpreadJS Workbook 与 共享文档 绑定
// bind 方法会全自动处理:监听本地操作提交 -> 接收远程操作应用
bind(workbook, doc);

2. 启用 Presence(光标与选区同步)

为了让协作“看得见”,我们需要启用 Presence 插件。

在这里插入图片描述

import { Presence } from "@grapecity-software/js-collaboration-presence-client";
import { bindPresence } from "@grapecity-software/spread-sheets-collaboration-client";

const presence = new Presence(connection);
const currentUser = { id: "user_A", name: "张三", color: "#FF0000" };

// 将用户信息与 Workbook 绑定,实现光标实时显示
await bindPresence(workbook, presence, currentUser);

四、 第三步:安全管控与权限注入

正如第五篇文章所说,企业应用必须有权限控制。我们在客户端设置用户的浏览模式,并在服务端进行二次校验。

1. 客户端权限设置

在这里插入图片描述

const userWithPermission = {
    ...currentUser,
    permission: {
        mode: GC.Spread.Sheets.Collaboration.BrowsingMode.view, // 设置为查看模式
        viewModePermissions: GC.Spread.Sheets.Collaboration.PermissionTypes.allowFilter | 
                             GC.Spread.Sheets.Collaboration.PermissionTypes.allowSort
    }
};
workbook.collaboration.setUser(userWithPermission);

2. 服务端中间件审计

server.js 中增加审计逻辑,拦截未授权的修改请求。

// 验证每一笔提交的操作
documentServices.use('submit', async (context, next) => {
    const userInfo = context.connection.tags.get('user');
    if (userInfo.mode === 'viewer') {
        return await next(new Error('只读用户禁止提交修改!')); 
    }
    await next();
});

在这里插入图片描述

五、 核心要点:V19 版本授权激活

SpreadJS V19 对协同插件引入了更严格的双重授权机制。这是生产环境部署最关键的一步,请务必关注:

  1. 获取机器 ID:在目标服务器上运行以下代码:

       import { getMachineIdForServerLicense } from '@grapecity-software/js-collaboration';
       console.log(getMachineIdForServerLicense());
  2. 申请 Server Key:将机器 ID 与你的 SpreadJS 部署授权(License Key)提交给支持团队,换取 serverLicenseKey
  3. 配置激活

      const server = new Server({ httpServer });
      server.licenseKey = "你的部署授权Key";
      server.serverLicenseKey = "你的服务器授权Key";

    注:若未配置授权,服务器将仅允许 localhost 访问,非本地请求将被拒绝。

六、 总结:开启你的协作时代

通过以上四步,我们已经成功搭建了一个具备实时同步、冲突处理、视觉感知、持久化存储和安全审计能力的 Web Excel 协作中台。

回顾整个系列:

  • 我们从价值出发,理解了协同对企业效率的革命性意义;
  • 我们深入技术,拆解了 OT 算法、Presence 模块和片段机制;
  • 最后,我们回归实践,展示了 SpreadJS 协同插件如何以高度封装的 API 降低开发门槛。

SpreadJS 协同插件(Collaboration Add-on)不仅是一个功能,它是一整套成熟的、可扩展的实时协作解决方案。它让复杂的表格业务不再受制于空间的距离,让数据在流转中产生真正的价值。

即刻开始你的协同之旅吧! 如果你在实践中遇到任何问题,欢迎访问我们的官方技术社区进行交流。

系列文章回顾:

  1. 【趋势篇】告别“文件传阅”,企业级在线协同的全景视野
  2. 【技术本质篇】深度解析 OT 算法:解决冲突的终极方案
  3. 【体验篇】Presence 插件:打造零距离的团队临场感
  4. 【性能优化篇】片段机制:支撑海量数据的协作底座
  5. 【安全管控篇】细粒度权限与版本追溯的完美平衡
  6. 【实践篇】从零到一:手把手搭建你的协作中台(本篇)
    在这里插入图片描述

在日常IT运维中,网络故障定位往往是最耗时、最令人头疼的任务。无论是分支互联中断、跨境访问卡顿,还是核心业务响应变慢,运维人员面临的首要问题是:故障点在哪里?方向一旦判断失误,黄金排障时间就被白白浪费。

在多年的排障实践中,我发现IP地址查询是快速缩小排查范围的关键工具。它不是万能的,但如果没有它,你可能会在日志、配置和拓扑图里绕很久。

一、IP地址在故障定位中的作用

IP地址本身不直接告诉你故障原因,但它能帮你回答几个关键问题:

  • 故障是全局性的还是区域性的? 如果只有某个地区的用户无法访问,问题很可能出在本地运营商链路或CDN节点上。2024年ThousandEyes发布的互联网报告显示,超过60%的网络故障具有明显的地域性特征,仅影响特定区域或运营商的用户。
  • 故障发生在哪个网络层面? 如果源站IP在全国多个监测点都ping不通,大概率是服务器或机房出口挂了;如果只有部分节点丢包,则可能是路由绕路或运营商互联拥堵。
  • 故障与哪些IP段相关? 某些异常流量往往来自特定IP段,通过分析访问日志中的源IP分布,可以快速判断是否为DDoS攻击。

要回答这些问题,你需要一个能准确告知IP地理位置、运营商、网络类型的可靠数据源。

二、三类高频故障的定位实践

1. 跨境业务卡顿,先看“最后一公里”

去年我们协助一家出海电商客户排查东南亚用户访问慢的问题。起初团队怀疑是源站服务器负载过高,但优化后端性能后效果甚微。我们利用IP查询工具,将用户主要投诉区域的IP段导入,拉取了连续7天的延迟、丢包和路由跳数数据。

返回信息显示:新加坡、印尼等地的用户流量绕经美国再进入中国,导致延迟增加150ms以上。问题根源是运营商层面的跨境路由选路策略,而非服务器性能。最终通过切换BGP专线优化路由,用户访问延迟降低了60%。

2. 多分支组网,IP冲突排查

今年初,公司进行全国分支网络割接后,杭州和南京两个分支无法互通。按传统方法需登录两地核心路由器逐条检查路由表,至少耗费半天。

我们利用IP查询工具的子网规划辅助功能:输入母网段和已划分的子网,系统自动高亮重叠部分。对比发现,南京分支的CIDR与杭州分支的子网掩码计算错误,导致路由环路。修正配置后业务立即恢复。

3. 核心业务突慢,快速定责

有一次大促期间,交易系统响应时间从200ms飙升至3秒。我们立刻用IP查询工具的多地域拨测功能,选取全国十几个运营商节点同时发起HTTP请求。结果清晰显示:北方联通节点全部正常,南方电信节点全部超时。30秒内锁定问题——南方电信骨干网波动。

带着这份监测报告联系电信运营商,对方半小时内确认故障并切换备用路由。

三、IP查询服务的技术能力

从实际使用来看,一套成熟的IP查询服务应具备:

  • 定位精度:国内街道级,准确率超过99.8%
  • 数据维度:提供国家、省份、城市、运营商、网络类型(家庭宽带/数据中心/企业专线)及风险标签
  • 更新机制:覆盖全球43亿IPv4地址,数据24小时更新,支持离线库私有化部署
  • 响应速度:API查询毫秒级返回,支撑高并发场景

以我们团队使用的IP查询工具(ipdatacloud.com)为例,其接口返回的usage_type字段可快速判断IP是家庭宽带还是数据中心,is_proxy标记是否经过代理,risk_level提供风险评分。在多地域拨测场景下,这些字段帮助我们快速定位故障范围。

四、接入与实操参考

IP查询服务接入方式灵活,可根据场景选择:

  • API接口:适合实时查询,返回JSON格式
  • 离线数据库:适合高并发、内网环境,提供CSV/MMDB格式
  • 私有化部署:适合金融、政企等高安全要求场景

Python调用示例:

import requests

def query_ip(ip, api_key):
    url = f"https://api.ipdatacloud.com/v2/query?ip={ip}&key={api_key}"
    try:
        resp = requests.get(url, timeout=3).json()
        if resp.get("code") == 200:
            data = resp["data"]
            print(f"归属地: {data.get('country')} {data.get('province')} {data.get('city')}")
            print(f"运营商: {data.get('isp')}")
            print(f"网络类型: {data.get('usage_type')}")
            return data
    except Exception as e:
        print(f"查询失败: {e}")

query_ip("8.8.8.8", "你的API密钥")

在实际运维中,可将这些字段与监控系统、CMDB联动,实现自动化排障。例如拨测发现区域延迟异常时,自动调用IP查询分析该区域IP段和运营商,生成初步分析报告。

五、小结

IP查询的价值不在于单点数据,而在于与时间、地域、行为等维度的关联分析。对于企业IT运维,这意味着:

  • 故障发生时,更快定界,减少跨团队扯皮
  • 网络变更时,自动校验配置,降低人为失误
  • 用户投诉时,将模糊体验转化为精准链路指标

工具只是辅助,最终决策仍需人对业务和网络的理解。但有了可靠的数据底座,你至少能在故障发生时,先找准方向再动手。

今天看到 @杭州金融女民工 的微博,也来说两句,之前看历史书籍的时候,就没少思考过这个问题,几乎无一例外。

无论中外,历史上都坚持 「嫡长子(女)继承制」,也只有基于这个规则的权力与财富传承才相对稳定,否则基本都是一团乱麻。

原因都是一样的:只有血脉纯正和出生顺序是 绝对客观 的,这个规则一目了然无从挑战;否则无论是「立贤」还是「扶弱」,都是一个 主观判断 的结果,无论如何都无法让所有人信服。

同理,现代社会的大家族传承,同样还是这一套规则,但凡没有坚持 「立长不立贤」 最后都是鸡飞狗跳;至于咱们小门小户,也没有皇位需要继承,并不需要刻意集中权力和财富,就只有 「平均分配」 才是唯一的正解。

1

2

ScreenShot_2026-03-11_134408_249

这样来看,我们俩都是独生子女,然后又是 DINK,那么无论对上还是对下,倒是都不用烦恼这个问题了~ 🤣🤣🤣

一款名为 @openclaw-ai/openclawai 的恶意 npm 包,伪装成合法的 OpenClaw CLI 工具,在开发者设备上悄悄部署功能完整的信息窃取程序与远程控制木马(RAT)。
该威胁内部代号为 GhostLoader,结合了精细化社会工程学、加密载荷投递与持久化驻留能力,可窃取开发者几乎所有高价值密钥,包括 SSH 密钥、云平台凭证、AI 智能体配置以及浏览器活跃会话信息。
该 npm 包伪装成无害的 “OpenClaw 安装工具”,拥有整洁的 package.json、看似正常的 src/index.js 出口且无额外依赖,快速审查时风险特征极低。
真正的恶意行为藏在 scripts 目录中:postinstall 钩子会静默将包全局安装,使 openclaw 命令加入系统 PATH,并指向混淆处理的第一阶段加载程序 scripts/setup.js
当开发者运行 openclaw 时,会看到界面逼真、带进度条与日志动画的 CLI 安装程序,以此掩盖高度混淆的代码正在外联 C2 控制服务器的事实。
JFrog 安全研究团队已确认这款名为 @openclaw-ai/openclawai 的恶意 npm 包正在活跃传播。
随后,恶意脚本会弹出仿苹果钥匙串风格的伪造提示框,声称需要 “安全存储凭证” 并索要系统密码。它会调用操作系统真实认证接口校验密码(macOS / Windows / Linux 均支持),伪装成正常行为。
当受害者输入密码时,setup.js秘密解码经 XOR 加密的 URL 与活动 ID,连接 hxxps[://]trackpipe[.]dev,下载经 AES‑256‑GCM 加密的第二阶段载荷。
解密后的 JavaScript 代码会写入临时文件,在独立 Node 进程中执行,并通过环境变量传递窃取的密码与活动标签:
  • NODE_AUTH_TOKEN
  • NODE_CHANNEL=complexarchaeologist1
执行约 1 分钟后文件会自动销毁,减少取证痕迹。

setup.js 经过高强度混淆:字符串表乱序、RC4 解密、控制流平坦化。运行时展示高度仿真的 CLI 安装界面与动态进度条。

在 macOS 上,如果 “完全磁盘访问权限” 限制了 Safari 数据读取,恶意软件还会通过 AppleScript 弹出对话框,诱导用户为终端授权完全磁盘访问,甚至提供直接打开系统设置的按钮,从而获取备忘录、邮件、iMessage 与 Safari 历史记录权限。

GhostClaw 伪装成 OpenClaw 运行

第二阶段载荷 GhostLoader 是一个 11700 行的 CommonJS 模块,它会以伪 “npm 遥测服务” 的名义实现持久化:
  • macOS / Linux:~/.cache/.npm_telemetry/monitor.js
  • Windows:%APPDATA%/.npm_telemetry/monitor.js
并通过 Shell 配置文件、定时任务、后台守护进程等多种方式维持自启动。
它会向 .zshrc.bashrc.bash_profile 追加伪装成 “NPM Telemetry Integration Service” 的启动项,在 Linux 中写入 @reboot 定时任务,并使用 PID 锁保证单例、持续运行
C2 服务器返回 JSON 格式响应,包含两个字段:
  • payload:Base64 编码的加密载荷
  • k:十六进制格式解密密钥

载荷使用 AES‑256‑GCM 算法解密。

首次运行时,GhostLoader 会在 10 分钟内完成高强度数据搜刮,并向 Telegram 发送 “新会话” 告警,包含受害者系统密码、主机名、IP、国家与设备配置,随后开始批量窃取敏感数据。
它会窃取:
  • macOS 与 iCloud 钥匙串
  • 解密 Chromium、Firefox 密码与 Cookie
  • 通过 Chrome DevTools Protocol 窃取 Cookie
  • 主流钱包应用、浏览器扩展助记词(BIP‑39)
  • 桌面、文档、下载目录中的敏感文件
针对开发者的特征极为明显,会专门窃取:
  • SSH 密钥
  • AWS、Azure、GCP 云平台凭证
  • Kubernetes kubeconfig
  • Docker 配置
  • npm、Git 账号
  • GitHub CLI 主机配置
  • Solana 密钥
  • 环境变量
同时还会搜刮 ZeroClaw、PicoClaw、OpenClaw 目录下的 AI 智能体数据。若获得完全磁盘访问权限,还会窃取受苹果数据保护类别的备忘录、iMessage、Safari 历史记录、邮件与苹果账号数据库。

对于无法通过 SQLite 直接提取的 Cookie,恶意软件会利用 Chrome DevTools Protocol 启动无头浏览器,通过 --remote-debugging-port 程序化导出全部 Cookie。

所有窃取数据会打包为:

[国家码]用户名_持久ID.tar.gz

并通过多重渠道外发:
  • 直接上传至 trackpipe[.]dev
  • 小文件通过 Telegram Bot API
  • 大文件通过 GoFile.io
随后,攻击者会在 Telegram 收到格式化的 GhostLoader 报告,汇总密码、支付信息、自动填充条目、钱包、助记词、SSH 密钥、权限状态、持久化方式与 AI 智能体信息。

从信息窃取器升级为持久化 RAT

完成首轮搜刮后,GhostLoader 会在后续启动时切换为持久化远程控制木马(RAT)模式
它会向 C2 面板注册上线,获取 Telegram 配置,随后启动多项监控,包括每 3 秒扫描一次剪贴板,实时抓取:
  • 加密货币密钥
  • AWS 密钥
  • OpenAI、Stripe API 密钥
  • 助记词
RAT 大约每 25 秒(带抖动)向 C2 轮询指令,支持:
  • 执行系统命令
  • 更新载荷
  • 重新采集数据
  • 任意目录外发
  • 启动 / 停止 SOCKS5 代理
  • 克隆浏览器配置文件

其中 CLONE_START 指令尤其危险:

它会复制完整浏览器配置,启动带远程调试的无头 Chromium,将 CDP WebSocket 转发回 C2,使攻击者直接获得已登录的浏览器会话,无需任何密码

为对抗安全人员分析,GhostLoader 采用多种规避手段:
  • 独立进程 + 伪装进程名
  • 自动清理临时载荷
  • 隐藏在 .npm_telemetry 目录
  • 外发后自动清空窃取目录
  • 支持 NUKE 自毁指令,一键清除启动项、定时任务、临时文件与安装目录
JFrog 表示,@openclaw-ai/openclawai 已被 JFrog Xray 与 JFrog Curation 拦截,可降低使用其软件供应链安全产品的企业的感染风险。
建议企业:
  • 仅使用官方可信源的 OpenClaw 版本
  • 部署自动化审核与 SCA 工具,在安装前识别恶意行为
已安装该包的开发者应彻底清理持久化项(Shell 配置、定时任务、守护进程),结束 npm_telemetry / monitor.js 进程,删除 .npm_telemetry 目录,卸载恶意包,并考虑全盘重装系统
由于 GhostClaw 利用了开发者对工具链的信任,企业应对满足以下任一特征的 npm 包保持高度警惕:
  • 请求系统密码
  • 使用 postinstall 钩子进行全局安装
  • 安装阶段下载远程加密载荷

入侵指标(IOC)

指标 内容
包名 @openclaw-ai/openclawai
类型 NPM
版本 1.5.15、1.5.14
XRAY-ID XRAY-949975
C2 域名 hxxps[://]trackpipe[.]dev
引导路径 /t/bootstrap?t=fafc0e77-9c1b-4fe1-bf7e-d24d2570e50e
活动 ID complexarchaeologist1
安装目录 ~/.cache/.npm_telemetry/
执行文件 monitor.js
临时文件 /tmp/sys-opt-*.js
Shell 注释 # NPM Telemetry Integration Service
Cron 注释 # Node.js Telemetry Collection
加密算法 AES-256-GCM(16 字节 IV,16 字节校验标签)
IP 查询 hxxps[://]ipinfo[.]io/json
备用上传 GoFile.io API
数据外发 Telegram Bot API、C2 面板
环境变量 NODE_AUTH_TOKEN、NODE_CHANNEL、NPM_CONFIG_TAG、GHOST_RECOLLECT、GHOST_TG_CONFIG

微软正式公布 Microsoft 365 Copilot 系列更新,重点围绕AI 智能体、多模型选择与企业集中管控,为企业办公自动化提供全面支持。
Microsoft 365 Copilot 正从传统助手式交互,升级为可自主执行操作、完成多步骤任务的智能体能力。微软同时推出全新套餐 Microsoft 365 E7,整合 Microsoft 365 E5、Copilot、Agent 365 及安全与身份产品。

AI 智能体为核心

本次关键升级是在 Microsoft 365 核心应用中全面落地智能体体验

新一代 Copilot 智能体功能将登陆 Word、Excel、PowerPoint、Outlook,并同步升级 Copilot Chat(原 “智能体模式”)。

微软还公布了 Copilot Cowork,目前处于研发预览阶段,由微软与 Anthropic 深度合作打造,基于 Claude Cowork 技术,用于长时间、多步骤、持续性的复杂办公任务

微软同时强调 Copilot 将采用多模型兼容策略。

在其 Frontier 计划下,企业用户可在 Copilot Chat 中选择模型,Anthropic Claude 与最新 OpenAI 模型将同时提供

AI 统一管控平台

本次发布另一核心为 Agent 365,微软将其定位为AI 智能体统一管控平台

该产品计划于 5 月 1 日正式上市,定价为每用户每月 15 美元,区域定价待定。

Agent 365 旨在让 IT 与安全团队能够统一观测、治理、管理与保护企业内所有 AI 智能体,并复用现有用户管理的基础设施、应用与安全防护体系。
微软商业事业部首席执行官 Judson Althoff 将这一管控架构与企业 AI 快速落地的风险相关联。
“智能体的开发与普及速度表明用户认可其价值,但缺乏安全护栏会导致管控盲区、投资回报下降与真实安全风险。”Althoff 表示。
微软同时公布了内部与早期客户的使用数据:
  • 预览版两个月内,Agent 365 注册中心已出现数千万个智能体
  • 微软内部可观测超 50 万个智能体
  • 过去 28 天,智能体日均为员工生成超 6.5 万条响应

全新套餐组合

Microsoft 365 E7 计划于 5 月 1 日正式推出,定价每用户每月 99 美元,区域定价待定。

该套件整合:

  • Microsoft 365 E5
  • Microsoft 365 Copilot
  • Agent 365
  • Microsoft Entra
  • Defender、Intune、Purview 高级安全能力

微软表示,E7 可与企业现有应用与安全体系无缝集成,并由 Work IQ 驱动。

Work IQ 是与企业办公场景深度绑定的智能层,为 Copilot 与智能体提供上下文支撑。

Althoff 将 Work IQ 视为区别于简单内容生成的核心优势。
“我常说,只做零样本内容生成不过是小把戏。” 他表示。
Work IQ 能够真实反映企业内部协作模式,包括人员协作关系与共用内容,并深度集成在现有工具中,用于提升 Copilot 输出的准确性与可信度

市场应用数据

微软同时披露 Copilot 强劲增长:
  • 付费席位同比增长超 160%
  • 日活跃使用量增长 10 倍
  • 大规模部署(超 3.5 万席位)的客户数量同比增长两倍

案例包括奔驰、NASA、Fiserv、荷兰国际集团、肯塔基大学、曼彻斯特大学、美国内政部、西太平洋银行等。

微软称,世界 500 强企业中已有 90% 使用 Copilot

微软将本次智能体、管控与安全能力的组合,定位为从 AI 试点走向企业规模化落地的关键一步。
“企业不再需要更多 AI 试点,他们需要能带来真实业务价值与增长的 AI。”Althoff 表示。

安全研究人员近期发现一项新型恶意软件攻击活动,攻击者伪装成企业内部 IT 支持人员,针对金融与医疗行业员工实施定向入侵。
攻击者在取得初步访问后,会部署一款名为 A0Backdoor 的新型隐秘后门。
BlueVoyant 网络安全研究团队确认,该攻击由 Blitz Brigantine(又称 Storm‑1811) 组织实施,其通过邮件炸弹轰炸微软 Teams 聊天消息组合诱骗受害者开放远程控制权限。

基于 Teams 与 Quick Assist 的完整攻击链

攻击以大规模垃圾邮件轰炸受害者邮箱为开端。
邮件轰炸开始后不久,黑客立即通过微软 Teams 联系受害者,伪装成公司 IT 客服,声称可协助解决当前的邮件异常问题。
攻击者诱导受害者打开 Windows 自带远程工具 Quick Assist,从而瞬间获得设备完全控制权
在拿到远程访问权限后,攻击者随即下载恶意安装包,这些文件高度伪装成微软 Teams 与 Phone Link 的合法更新程序
为让文件看起来完全可信,黑客将其托管在个人微软云存储账号中,并使用数字证书进行签名。
安装程序运行后,会将一个正常的微软程序,与名为 hostfxr.dll 的恶意伪造文件放在一起。
当正常程序启动时,会在无感知情况下加载恶意文件,这一隐秘攻击手法被称为 DLL 侧加载
该伪造文件是一个加壳强度极高的恶意加载器,可阻止安全工具对其进行分析。
  • 它通过反沙箱技术检查设备固件,识别 QEMU 等虚拟测试环境。
  • 同时创建大量垃圾线程,专门用于使调试软件崩溃

更特殊的是,该加载器使用自定义时间算法解锁真实载荷。

恶意代码仅在特定 55 小时时间窗口内才能成功解密。

此外,黑客会在命令行末尾插入一个不可见空格字符

恶意软件必须匹配该隐藏字符,才能生成正确密钥,解锁最终病毒体。

这一设计让安全研究人员在事后极难复现攻击与分析代码

A0Backdoor 后门与 DNS 隐秘通信战术

在通过所有自检后,恶意软件会将 A0Backdoor 写入内存。该后门用于窃取信息并维持长期控制
后门会立即采集设备信息,包括用户名与系统硬件信息,方便攻击者精准识别受害者。
为在不触发告警的情况下与攻击者通信,A0Backdoor 采用了 DNS 隧道这一隐蔽通信技术。
malware 不会直接连接可疑的黑客控制服务器,而是向可信公共 DNS 解析器发送请求,例如 1.1.1.18.8.8.8
它将隐藏信息伪装成邮件交换记录查询(MX 查询),这类请求通常用于服务器正常邮件路由。

攻击者将窃取的数据与恶意指令隐藏在超长、复杂的子域名中。

公共解析器会将请求转发至黑客隐藏服务器,并将加密响应返回给受感染设备。

由于流量全程经过可信公共服务器,且外观与企业常规邮件路由完全一致,可轻易混入正常流量中不被发现。
黑客还刻意使用早年注册的旧域名,而非全新注册域名,以此绕过安全设备对新注册域名的自动拦截规则。

此次攻击标志着 Blitz Brigantine 组织战术的重大转变,其已放弃传统勒索软件模式,转向高度定制化的隐秘攻击
专家强烈建议企业:
  • 加强员工培训,严格核验所有来自 Teams 的 IT 支持请求
  • 监控并限制 Quick Assist 等远程工具的使用
  • 拦截未授权的安装包,防范此类高危害入侵

ScamAgent 是由罗格斯大学研究员 Sanket Badhe 开发的全自动多轮对话 AI 框架,该系统展示了大型语言模型(LLM)如何被恶意利用,用于实施完全自动化的诈骗通话
通过整合目标驱动规划、上下文记忆与实时语音合成(TTS),该系统成功绕过现有 AI 安全机制,实现高度逼真的社会工程学攻击。
ScamAgent 的架构不同于传统提示词注入,它采用中央调度器,在多轮交互中统一管理对话状态与欺骗策略。
当接收到恶意任务时,该智能体会通过目标拆解,将攻击目标分解为一系列看似无害的子目标,模拟人类诈骗分子逐步获取受害者信任的过程。
为绕过 GPT‑4、LLaMA3‑70B 等模型的安全过滤器,ScamAgent 会将恶意指令包装在角色扮演场景中,在标准单轮审核工具面前成功隐藏核心恶意意图。
在五种常见诈骗场景的实验评估中,ScamAgent 均能有效突破模型对齐机制与安全协议

目标拆解:攻击者将恶意目标拆分为多个看似无害的步骤。防护需对多轮对话进行全程追踪检测。

欺骗与角色扮演:恶意请求隐藏在虚假剧情或官方身份中。可通过禁止身份仿冒、限制 AI 人设来降低风险。

上下文记忆:系统会记录历史对话并调整诈骗策略。限制记忆长度可降低此类风险。

实时语音合成:将文本转化为逼真的诈骗语音。在生成语音前对内容进行审核可防止滥用。

直接发送恶意查询的拒绝率为 84%~100%,而该智能体框架通过在多轮对话中分散恶意意图,将拒绝率降至 17%~32%。
值得注意的是,在求职身份诈骗模拟中,Meta 的 LLaMA3‑70B 模型完整对话完成率高达 74%,可完成所有子任务且不触发任何安全拦截。
研究人员表示,防御此类全自动生成式攻击,安全系统必须从简单的提示词过滤,升级为可理解用户意图的持续监控
研究团队呼吁 AI 平台与安全团队部署多层防御体系,包括使用序列分类器预测长期攻击结果,并严格限制模型的记忆存储行为。

Radware 正式发布 Alteon Protect 安全组件,专为其 Alteon 应用交付控制器(ADC)产品线设计,可将设备本地防护能力与 Radware 云安全平台深度联动。
该产品面向在本地基础设施与公有云混合环境中运行 Web 应用与 API 的企业机构。Radware 表示,借助该方案可直接扩展应用安全能力,无需通过新增网络链路转发流量,也无需扩容硬件设备

混合架构防护模式

Alteon Protect 采用云端检测、本地设备执行的分离架构。云端提供实时防护引擎与检测算法,ADC 在本地完成低延迟安全策略执行。
Radware 指出,这一架构旨在应对 Web 应用与 API 面临的日益增长的攻击流量,包括应用层 DDoS 攻击、自动化机器人流量以及 API 接口滥用等威胁。
Alteon Protect 可实时检测并缓解七层 Web DDoS 攻击、API 滥用、机器人攻击及 Web 应用威胁,所有防护动作均在本地设备完成,可避免将 SSL 证书上传至云端。
ADC 部署在应用前端,负责负载均衡、流量调度与 SSL 卸载等核心功能。许多企业已将 ADC 作为 Web 应用防火墙与安全策略的统一管控点。Radware 此举也顺应行业趋势:将更多安全检测与分析能力上云,同时让流量处理保持在应用就近节点

部署方式

Alteonon Protect 支持企业直采部署与托管服务两种模式。Radware、运营商及安全托管服务商(MSSP)均可提供自管理或全托管服务形态。
客户可在本地与云环境中直接部署,或通过服务商渠道启用。该模式符合多数企业的安全服务使用习惯,尤其适合需要集中策略管理、持续安全更新且不希望新增硬件的团队。
Radware 表示,该产品主要面向两类客户:
  • 对企业用户:无需替换现有 ADC,即可叠加云端安全能力
  • 对托管服务商与运营商:架构原生支持多租户交付

授权模式

产品扩容与 Radware 全局弹性授权体系绑定,可根据业务需求弹性提升安全防护容量,具体定价暂未公布。
Radware 同时为新老客户提供相关支持计划,以降低评估与部署门槛,但未披露具体商务条款与适用条件。

市场背景

近年来,安全团队正将传统 Web 应用防护机制适配至API 优先开发、微服务与高强度加密场景,这一转变让应用层威胁受到更多关注,包括凭据填充、业务逻辑滥用、高频非流量型请求攻击等。
与此同时,许多企业希望减少将解密流量传入第三方平台,证书与密钥管理的运维限制也影响了架构选型。Alteonon Protect 正是基于这一背景设计:防护执行留在本地 ADC,分析与更新依托云端完成
Radware 首席运营官 Gabi Malka 表示,许多企业在部署时需要在性能、防护与成本之间权衡取舍。
“企业不应在性能、防护与成本之间被迫取舍,”Malka 称,“Alteon Protect 现代化升级了 ADC 安全模型,将云端增强 WAF、七层 DDoS 防护、机器人防护与 API 安全与本地低延迟执行相结合,在保护现有投资的同时,为客户提供持续、云级规模的安全能力。”
Radware 介绍,Alteon Protect 是其AI 驱动云安全平台的重要组成部分。公司面向云与本地环境提供应用安全与交付产品,专注防护 Web 应用、API 与网络基础设施,抵御 DDoS 与自动化机器人等攻击。
Alteon Protect 现已面向企业开放部署,并通过运营商与 MSSP 渠道提供服务,实现云端检测、Alteon 设备本地执行的一体化安全架构。

知名开源低代码平台 Budibase 日前发布紧急安全补丁,修复两项高危漏洞。这两个漏洞分别为 CVE‑2026‑30240CVE‑2026‑31816攻击者可绕过身份认证,窃取生产环境中的敏感密钥

其中最具威胁的是 CVE‑2026‑31816,CVSS 评分高达 9.1

漏洞源于平台用于保护所有服务端接口的 authorized() 中间件,因 isWebhookEndpoint() 函数中的正则表达式未做边界限定,导致请求校验逻辑异常。攻击者只需在任意请求的参数中拼接类似 ?/webhooks/trigger 的路径特征,即可欺骗服务器跳过全部身份认证与权限校验

漏洞影响

完全权限绕过:攻击者无需用户名、密码即可访问全部 API 接口。

数据全面暴露:获得数据表、记录、自动化流程与插件的完整增删改查权限。

无交互攻击:纯网络层面利用,无需钓鱼、无需用户操作即可触发。

如果说第一个漏洞打开了系统大门,那么 CVE‑2026‑30240(CVSS 9.6)可让拥有 “构建者” 权限的用户彻底攻陷整个平台。

该漏洞存在于渐进式 Web 应用(PWA)的 ZIP 处理接口中。用户上传构造好的恶意 ZIP 压缩包(内含篡改的 icons.json),可利用未做过滤的 path.join() 实现路径遍历攻击

攻击者能够读取服务器上任意文件,包括 /proc/1/environ,该文件通常存储全部环境变量

漏洞影响

密钥窃取:可窃取 JWT 密钥、数据库凭证、API 令牌等核心敏感信息。

跨租户风险:在 Budibase 云服务中,单个租户的构建者可窃取平台全局密钥,影响所有用户。

实测验证:研究人员已在生产环境复现成功,成功获取 19 项核心密钥,包括 AWS IAM 密钥与 OpenAI API 密钥。

上述漏洞组合可实现对整个平台的完全攻陷

一旦泄露 JWT_SECRET,攻击者可伪造任意用户的管理员令牌;窃取 API_ENCRYPTION_KEY 后,则能解密系统中所有存储的数据源密码。

主流 Kubernetes 流量网关组件 ingress-nginx 被曝存在高危安全漏洞。该漏洞编号为 CVE‑2026‑3288,CVSS 评分高达 8.8,核心问题源于控制器对特定注解的处理机制,攻击者可借此突破沙箱限制,获取集群敏感数据控制权
漏洞出在 nginx.ingress.kubernetes.io/rewrite-target 这一 Ingress 注解上。安全研究人员证实,该注解可被恶意利用,直接向底层 Nginx 进程注入非法配置
漏洞一旦被成功利用,将造成极其严重的后果:

任意代码执行:攻击者可在 ingress-nginx 控制器进程上下文中执行任意代码。

大规模数据泄露:由于默认部署下控制器通常拥有集群级访问权限,攻击者可遍历并泄露整个 Kubernetes 集群内的所有 Secret 密钥信息

该漏洞仅影响运行 ingress-nginx 控制器的环境。你可通过以下命令检查集群是否受影响:
kubectl get pods --all-namespaces --selector app.kubernetes.io/name=ingress-nginx

受影响版本

  • ingress-nginx:1.13.8 之前的版本
  • ingress-nginx:1.14.4 之前的版本
  • ingress-nginx:1.15.0 之前的版本
管理员应立即检查集群中 Ingress 资源是否存在被篡改痕迹,重点关注 rules.http.paths.path 字段中的可疑内容,此类特征通常意味着已发生攻击尝试。
最根本的修复方案:将 ingress-nginx 升级至已修复版本(v1.13.8、v1.14.4 或 v1.15.0 及更高版本)。
若暂无法立即升级,可通过准入控制策略临时禁用 rewrite-target 注解,在完成补丁升级前降低风险。

一款看似实用的 AI 助手,可能是潜伏在你浏览器中的静默间谍。微软 Defender 安全研究团队揭露了一场大规模攻击活动:基于 Chromium 内核的恶意浏览器插件伪装成正规 AI 工具,大肆窃取用户敏感数据
此次攻击的插件安装量已高达 90 万次,遥测数据证实,超过 2 万家企业机构正在遭受活跃的数据窃取
攻击采用了经典的 “诱骗替换” 手段。攻击者在 Chrome 应用商店发布高仿 AI 助手插件,伪装成正规 AI 侧边栏工具以获取信任,从而实现大规模诱导安装
由于微软 Edge 等现代浏览器均支持 Chromium 扩展,仅一个恶意插件上架,就能跨平台大范围侵害用户。一旦安装,这类插件就会成为嵌入企业日常浏览器使用中的持久化数据采集机制
此次行动的目标是大规模窃取知识产权与内部工作流程。插件通过后台脚本记录用户几乎所有访问的 URL,更关键的是,会完整抓取用户与 AI 交互的全部内容
目前被窃取的数据包括:
  • 完整 AI 对话记录:ChatGPT、DeepSeek 等平台的全部提示词与回复内容。
  • 内部访问记录:企业内部站点与私有仪表盘的完整 URL。
  • 上下文元数据:页面跳转上下文、模型名称及唯一用户标识符(UUID)。
研究人员指出,这些数据能让攻击者洞悉企业内部应用、工作流程,以及用户日常与 AI 工具共享的潜在敏感信息
该恶意程序被设计为长期隐匿、持续外传数据。研究团队发现,插件会定期将Base64 编码的 JSON 数据块上传至远程服务器,例如 deepaichats[.]com
攻击者还使用了极具欺骗性的手段:内置机制强行覆盖用户隐私选择。报告指出:“插件更新后遥测功能会默认开启,即便用户此前已拒绝”,这意味着用户可能在不知情、未明确授权的情况下持续泄露数据

企业防护建议

  • 插件盘点清查:使用终端管理工具,对企业内所有已安装的浏览器插件进行审计与盘点。
  • 实施白名单机制:对浏览器插件采用“默认禁止”策略,仅放行经过安全与隐私审核的插件。
  • 强化员工安全意识:向员工普及风险,警惕非官方渠道安装或来源不明发布者提供的 AI 工具,即便在官方应用商店内也需谨慎。

 

做风控这些年,我发现一个挺有意思的现象:大家一开始都迷信IP,觉得这玩意儿是铁打的证据;后来被动态IP、代理出口坑多了,又开始觉得IP没用,转向设备指纹;折腾一圈回来,发现IP还是那个最基础的锚点,关键得看你怎么用。

最近正好在搞一个电商项目的风控升级,碰上一波抢购的异常流量,折腾了两周,有些体会可以聊聊。

起手式:我们是怎么被逼着重新审视IP的

事情是这样的。上个月我们搞了个限时秒杀活动,刚开始半小时,监控就报警了——接口响应变慢,数据库连接数飙升。查日志发现,大量请求来自不同IP,但行为模式高度一致:请求间隔精确到毫秒级,UA头整齐划一。

第一反应是上频率限制。结果发现,这些IP每个就请求几次,频率根本不高。后来才意识到,这是“秒拨”——有人手里握着大把IP资源,轮着用,每个IP都是“干净的”,常规限流根本锁不住。

那段时间我们试了好几种方案。一开始想着自己维护IP黑名单库,结果发现这活儿太累:每天要拉取各种公开情报,还得自己清洗、打标签,更新慢了就漏过。后来转向用商业IP库,,主要是它那个“网络类型”字段给得细——能直接区分出“家庭宽带”、“IDC机房”、“秒拨代理”,这在当时帮了大忙。

实战:分层级把IP管起来

踩过坑之后,我们重构了IP风控的架构。大概分成三层,不一定适合所有场景,但思路可以参考。

第一层:在网关直接干脏活
对于那种一眼假的扫描流量,没必要进业务层。我们在OpenResty里写了几条Lua脚本,配合商业IP库的本地离线版做快速过滤。比如:

  • 如果IP归属地是海外,但访问的是只有国内用户知道的活动页,直接返回403。
  • 如果IP类型是“IDC机房”,但请求的是登录接口,先弹个验证码。

这层追求的是快,数据要本地化,不能走网络。我们用的服务商提供离线库文件,每周更新一次,直接挂载到网关,查询延迟在微秒级,基本不影响性能。

第二层:业务风控的精细活
这一层是我们投入精力最多的。核心思路是不只看IP本身,还要看IP背后的“人”。

举个例子。秒拨最大的特点:IP一直在变,但设备没变,或者账号没变。所以我们引入了设备指纹,然后把第三方接口返回的“IP类型”和设备行为关联起来。

当时写了个简单的规则引擎,逻辑大概是这样(伪代码):

def risk_check(ip, device_id, user_id):
    ip_info = query_ip_data_cloud(ip)  # ipdatacloud.com 接口
    if ip_info.network_type == "broadband" and device_id in suspicious_devices:
        # 家庭宽带IP+可疑设备=高风险
        return "block"
    if ip_info.network_type == "proxy" and user_activity.is_new_user(user_id):
        # 代理IP+新注册用户=大概率羊毛党
        return "captcha"
    if ip_info.risk_score > 80:
        # 高风险IP直接拦截
        return "block"
    return "allow"

这里面最关键的其实是那个 ip_info.network_type。以前我们用开源库,只能看到运营商和地理位置,没法判断是不是代理。换成现在的服务商之后,发现对方把这个字段拆得很细,连“秒拨IP”都有单独标签,这对规则命中率提升帮助很大。

第三层:离线挖掘,挖团伙
线上拦截做完了,但侵入手法也在进化。我们定期把日志导到数据仓库,用Spark做离线分析。比如:统计每个IP关联的设备数,如果某个IP关联了超过20台设备,且这些设备都有异常行为,那就把这个IP标记为“NAT出口”或“代理跳板”,下次遇到这个IP的请求,即使行为看起来正常,也要降权处理。

这个思路参考了Digital Element去年的一份报告,里面提到运营商级NAT(CGNAT)越来越普遍,一个IP背后可能是一整个小区的用户。如果因为一个恶意请求封了整个IP,误伤面就太大了。所以离线分析的目的,就是把这种“共享IP”识别出来,避免误杀。

踩坑记录:有些坑你们可能也会遇到

1. IPv6的坑
我们曾经天真地以为IPv6地址空间大,入侵者不好囤积,结果发现他们比我们想象的精。他们通过隧道技术,把IPv4流量包装成IPv6,照样能绕过黑名单。后来我们被迫在风控系统里同时支持v4和v6的画像,还好服务商的v6库覆盖还算全,省了不少麻烦。

2. 接口调用的超时问题
一开始我们所有请求都实时调用第三方IP服务的API,结果有次对方机房网络波动,我们的接口跟着超时,导致用户登录失败。后来加了一层本地缓存,把最近查过的IP结果存起来,API挂了就走缓存,虽然可能旧一点,但至少服务不中断。

3. 数据更新频率
恶意IP池变化很快,我们试过每周更新一次离线库,发现很多IP周五还是干净的,周六就变成入侵来源了。后来切到每天增量更新,配合实时API查询高风险场景,才基本压住。

说点实在的:IP风控还能怎么玩

这一仗打下来,我对IP风控的看法变了。以前觉得IP就是个坐标,现在觉得IP是个“入口”,通过它能挖出很多信息。

比如,结合IP风险评分,我们尝试做了个动态信任模型:正常用户的IP风险分低,允许访问所有功能;中风险用户,加验证码;高风险用户,直接拒绝。这套模型上线后,异常请求拦截率降了70%以上,用户侧的误伤率控制在0.5%以内。

另一个想尝试的方向是“IP关联图谱”。通过分析IP之间的跳转关系(比如一个设备在短时间内换了多个IP),可以画出异常行为路径。这需要大量数据积累,目前还在探索中。

最后给个建议:IP数据只是风控拼图里的一块,别指望靠它解决所有问题。但如果没有一块靠谱的IP数据,拼图永远缺一角。至于怎么选服务商,我的标准就三条:数据更新快不快(能不能抓到秒拨)、标签细不细(是不是只有“代理”这种模糊分类)、稳定性好不好(别动不动超时)。目前用的IP数据云在这三块还算均衡,当然你们也可以多对比几家,找最适合自己业务的。

以上,就是这段时间折腾IP风控的一些心得。写得比较散,想到哪说到哪,希望对正在被类似问题困扰的同行有点用。

在排查线上问题时,你很可能遇到过这种情况:同一台服务器的访问日志里,IPv4地址定位到A城市,IPv6地址却指向B城市,甚至经纬度都不同。这并非某个IP库的数据质量问题,而是IPv4与IPv6在网络架构、地址分配机制上的本质差异在定位层面的体现。

一、定位实现机制的本质差异

从技术实现角度看,两种协议的定位逻辑存在根本区别。

IPv4定位依赖“推测模型”。由于地址枯竭,NAT已成为普遍存在,一个公网IPv4地址背后可能是成百上千用户,甚至通过CGNAT覆盖整个片区。定位系统无法直接获取用户位置,只能基于三类数据进行推算:

  • Whois注册信息:多数IPv4段的注册地址已过时
  • BGP路由通告:通过AS路径推断地理覆盖范围
  • 主动探测数据:利用RTT测量进行三角定位

这三种方法叠加,本质上是在做“概率推断”——给出的是最可能的区域,而非真实位置。

IPv6定位具备“拓扑线索”。IPv6地址结构自带层次化信息:全球路由前缀(/23)、运营商前缀(/32)、区域前缀(/48)、子网前缀(/64)。运营商在部署IPv6时,普遍遵循地域化分配策略——某段/48前缀划归某城市,某段/64前缀对应某接入网。

这意味着什么?对于定位系统,IPv6地址本身就是线索。只要建立前缀与地理区域的映射关系,定位精度天然高于IPv4。这不是算法更强,而是架构设计使然。

二、精度现状:数据对比

根据某商业IP库2025年内部测评数据显示,在排除移动网络场景后:

  • IPv4定位:中国区域内,城市级准确率约87%,区县级约42%
  • IPv6定位:中国区域内,城市级准确率约96%,区县级约78%,部分运营商已实现街道级

造成这种差异的技术原因有三点:

第一,IPv4地址流转导致信息失真。 地址交易市场活跃,一个原属华北的IPv4段可能被华南运营商采购使用,但Whois库可能五年未更新。业界普遍认为,相当比例的IPv4地址段存在注册信息与实际使用者脱节的情况。

第二,IPv6分配仍处规范期。 国内三大运营商在IPv6规划阶段就明确了地域映射关系,地址段与物理位置的绑定逻辑清晰可溯。以中国移动为例,其CMNET6骨干网的地址规划文档显示,/48前缀的第三、第四字节直接编码了省份和地市信息。

第三,NAT汇聚模糊了IPv4出口。 即便用户真实位置在县城,流量经市级甚至省级BRAS汇聚后,出口IPv4地址属于汇聚层设备,定位结果自然被拉高到上级城市。IPv6的端到端架构不存在此问题。

三、数据库支持的技术演进

IP定位的本质是建立“地址段→位置”的映射表,但两套协议的库维护逻辑已走向分化。

IPv4库:历史数据沉淀为主。由于分配格局固化,IPv4库的核心工作是“校准”——通过探测数据修正错误的注册信息。主流厂商采用被动探测+主动反馈机制,对存量段进行持续校正。更新周期通常为周级。

IPv6库:实时数据流驱动。IPv6空间太大,被动探测覆盖不了,必须依赖源数据。2025年IAB发布的RFC 9630(原RFC 8805的更新版)规范了geofeed格式,运营商可主动发布自己的前缀-位置映射。定位服务商通过订阅这些数据流,实现日级甚至小时级同步。

国内厂商已跟进这一机制。以IP数据云为例,其IPv6库每日接收来自数十家运营商的geofeed更新,结合BGP路由变化实时调整。对于接入CNGI(中国下一代互联网)的项目,这种实时性直接决定风控策略的有效性。

四、选型策略与实操建议

对于需要处理双栈流量的技术团队,以下几点可供参考:

1. 区分场景精度要求

  • 内容分发:IPv6的区县级精度已足够指导CDN调度
  • 反欺诈:IPv6的街道级数据可辅助设备指纹,但需注意动态前缀重新分配的风险
  • 合规审计:要求服务商提供数据置信度和更新时间戳,IP数据云这类服务支持导出每条结果的置信度字段

2. 关注动态分配处理
IPv6前缀可能因网络重构重新分配,2024年某省联通就发生过/48段整体迁移的情况。选择支持实时变更推送的服务商,比单纯依赖离线库更稳妥。

3. 数据源交叉验证
对于关键业务,可同时接入RIR的Whois数据、运营商geofeed和商业库进行交叉比对。IPv6时代,单一数据源已不足以支撑高精度需求。

五、小结

从技术实现角度看,IPv4与IPv6的定位差异本质上是“补丁机制”与“原生机制”的区别。IPv4定位是在地址短缺的约束下不断打补丁,而IPv6定位则是架构设计的自然产物。理解这些差异,有助于在系统设计阶段合理规划IP定位模块的选型与预期精度,避免在排查问题时陷入“为什么数据对不上”的困惑。

最近站点做起来了,有人已经开始找我买用户数据了,这个很容易闹成法律纠纷,我这边果断还是拒绝了

之前的帖子里面讲了,模型蒸馏产业链、以及用中转站的注意事项
https://cn.v2ex.com/t/1196011

大家还是使用中转的时候 还是要多多留意,关键 key 跟私钥 一定要放置到 agent 不能读取的目录里面,防止被坏人利用

Invicti Standard v26.2.0 for Windows - 企业级 Web 应用与 API 安全

Invicti (formerly Netsparker) | Web Application and API Security for Enterprise

请访问原文链接:https://sysin.org/blog/invicti/ 查看最新版。原创作品,转载请保留出处。

作者主页:sysin.org


Invicti 源自 DAST 先驱 Netsparker 和 Acunetix,并融合了 Kondukto 提供的 ASPM 能力,是唯一一款基于验证的应用安全平台,能够在攻击者利用之前发现、验证并优先排序真实漏洞。

invicti

3600+ 家顶级组织信任 Invicti

完整的 AppSec 覆盖

以信心验证漏洞、自动化修复并管理风险态势

Invicti 关联来自所有测试工具的结果,确认哪些是真实问题,并通过 AI、自动化和 ASPM 推动更快的修复。

Discover

发现(Discover)

发现组织中的每一个网站、应用、API 以及隐藏资产。

Predict

预测(Predict)

在测试开始之前,识别并评分风险最高的应用。

Scan

扫描(Scan)

99.98% 的准确率扫描网站、应用和 API,检测漏洞。

Prioritize

优先级排序(Prioritize)

在单一视图中关联所有安全测试工具的结果,并按风险对漏洞进行优先级排序。

Pinpoint

精准定位(Pinpoint)

发现其他扫描器无法识别的隐藏文件,自动精准定位代码位置,让开发人员无需手动查找漏洞。

Remediate

修复(Remediate)

生成 AI 驱动的修复方案,向开发人员展示每个漏洞的根本原因,并提供逐步的解决方法。

Deploy

部署(Deploy)

通过基于验证的校验、AI 指导的修复,以及映射至 PCI DSS、SOC 2 等标准的合规就绪报告,实现安全代码交付。

行业领先的 DAST,驱动智能 AppSec 平台

其他 AppSec 平台只是将 DAST 作为事后补充;Invicti 从一开始就以 DAST 为核心构建,并加入行业领先的 ASPM 功能,用于统一、验证并优先处理整个安全技术栈中的告警 (sysin)。我们提供无缝集成、经运行时验证的高准确性、更快的修复速度,以及对风险态势的真实洞察。

Invicti-Background

SAST | SCA | 容器安全 | DAST | API 安全 | ASPM

查找、优先排序并修复代码漏洞

Invicti 与领先的 SAST 提供商集成,为团队带来两全其美的能力:对所有应用代码进行前瞻性的静态测试,并结合 DAST 的基于验证的确认机制。这是真正没有噪音的 SAST

Invicti-SAST

世界领先的 DAST,因 AI 更强大

行业领先的 DAST 引擎持续通过 AI 创新不断进化,缩小自动化扫描与人工渗透测试之间的差距。我们的 AI 创新不仅提升了 DAST 的准确性,还帮助修复由 AI 驱动软件带来的风险。

8 倍
扫描速度快于主要竞争对手

99.98%
可利用漏洞的确认准确率

70%
AI 修复方案的采纳率

40%
相比其他主流 DAST 产品发现更多漏洞

为开发人员和安全负责人简化 AppSec

CTO & CISO

降低 AppSec 风险,证明 ROI,自信领导

  • 通过 99.98% 准确率的扫描结果,大幅减少手动分流时间
  • 使用灵活、可扩展的部署模型治理 1,000+ 应用
  • 提供满足审计要求的资产与风险清单洞察

Invicti-CTO-CISO

工程团队

快速创新,安全交付,最小化开发干扰

  • 基于验证的发现 = 不再浪费分流时间
  • CI/CD 优先的集成,自动创建问题
  • 面向开发者的修复指导 + 充分的分析空间

Invicti-Engineering-Teams

DevSecOps 团队

解除交付阻塞,安全治理,凭可见性扩展规模

  • 在不增加摩擦的情况下,将安全融入每一个流水线阶段
  • 基于角色的访问控制,实现跨环境的安全自治
  • 支持认证后扫描与跨应用扫描,提供深度运行时可见性

InvictiDevSecOps-Teams

深受高度监管行业信赖

行业

  • 政府
    持续满足合规标准,保持 ATO。
  • IT 与电信
    跨环境扩展,集成至 CI/CD 工作流,快速修复真实漏洞。
  • 金融服务
    安全创新,加速开发。
  • 医疗健康
    保护患者数据,通过内置报告证明 HIPAA 合规性。

与你已在使用的工具无缝集成

已与 110+ 解决方案集成

Invicti 版本

Invicti Web 应用程序安全扫描程序有两个版本:

  • Invicti Enterprise 是一种多用户企业和可扩展解决方案,可按需提供或作为本地解决方案提供(Invicti Enterprise On-Premises、Invicti Enterprise On-Demand)。
  • Invicti Standard 是一个单用户 Windows 应用程序。

Invicti 的两个版本都使用相同的 Proof-Based Scanning 技术来提供高度准确的扫描结果。此外,两者都易于使用,并且彼此完全集成,并支持与许多其他工具的集成。

Invicti Enterprise 是一个多用户在线 Web 应用程序安全扫描解决方案,具有内置的工作流工具。它专为帮助企业在几个小时内扫描和管理数百甚至数千个网站的安全性而设计 (sysin),无需安装任何新的硬件或软件。

Invicti Enterprise 用于集成到软件开发生命周期、DevOps 和实时环境中,以在实时环境中开发或运行数千个 Web 应用程序和 Web 服务时对其进行扫描。它也可作为本地版本提供。

Invicti Standard 可作为带有内置渗透测试和报告工具的 Windows 应用程序提供,其中许多工具允许完全自动化的安全测试。Invicti Standard 用于进行手动分析和利用,非常适合需要进行更高级测试的情况,例如需要用户输入的单个组件。

系统要求

支持最新的 Windows x64 操作系统,包括但不限于:

新增功能

Invicti Standard Release v26.2.0

发布日期:2026 年 2 月 10 日

新功能

  • 新增支持使用客户端证书认证的 SEM 集成
  • 新增在 OAuth2 选项卡中使用密钥(secrets)的支持
  • 在身份验证验证(Authentication Verification)中新增 .har 文件下载功能

改进

  • 将 Invicti.Common.Browser.Driver 的 Node 版本更新至 v20.20.0
  • 将 Shark.Java 软件包从版本 20 升级至版本 21
  • 改进了登录失败通知
  • 增量扫描现在可以正确检测新增和已修改的页面,并在没有变化时不执行任何操作
  • 改进了 DOM XSS 模拟

已解决的问题

  • 修复了影响“详细扫描报告(Detailed Scan Report)”生成的问题
  • 修复了创建知识库(Knowledge Base)条目时的问题
  • 更新了 Secrets 部分的信息面板 (sysin)

下载地址

Invicti Standard v26.2.0 - 10 February 2026


相关产品:

更多:HTTP 协议与安全