摘要

随着数据密集型应用的快速发展,哈希索引已成为内存数据库、键值存储和重复数据删除系统的核心组件。传统哈希索引在面对持久内存(PMem)时,由于存储流量放大和内存效率低下,难以充分利用其大容量和持久性优势。为此,OceanBase研究人员联合厦门大学、昆士兰大学学生及教授提出了一种新型哈希索引设计MetoHash,通过层次化设计、批量持久、指纹过滤和重复合并等技术,有效解决了传统方案在存储 I/O 放大和内存效率方面的问题。

简介

随着数据密集型应用的快速增长,能够实现常数级查找复杂度的哈希索引已成为构建内存数据库、键值存储和重复数据删除系统的核心组件。传统哈希索引在面对新兴的持久内存时,虽然利用了其大容量和数据持久性优势,却在存储流量放大和内存效率方面面临严峻挑战。

持久内存以其大容量、数据持久性、近 DRAM 性能等特性,为内存架构带来革命性变革。然而,PMem 的固定访问粒度和持久化 CPU 缓存特性,使得传统哈希索引设计难以充分发挥其硬件潜力,其原因在于现有方案极易放大存储 I/O 或降低内存效率。

日前,一篇题为《MetoHash: A Memory-Efficient and Traffic-Optimized Hashing Index on Hybrid PMem-DRAM Memories》的论文被高性能计算顶级会议SC 2025录用,并荣获最佳学生论文提名(该会议录用的 136 篇论文中选择 6 篇)。该论文由厦门大学、昆士兰大学与 OceanBase 的研究人员联合完成。其中,厦门大学硕士生余子祥、邓光阳为共同第一作者,沈志荣教授为通讯作者;昆士兰大学鲍芝峰教授,以及 OceanBase 的徐泉清、杨传辉研究员共同参与了此项研究。

SC 由美国计算机协会(ACM)与美国电气电子工程师学会(IEEE)于 1988 年共同创办,是全球高性能计算领域公认的年度顶级盛会,是中国计算机学会 CCF 推荐的 A 类国际会议。SC 2025 会议共收到 643 篇投稿,接收 136 篇,录用率 21.2%。

本论文的核心思想是构建一个跨越 CPU 缓存、DRAM 和 PMem 的三层索引架构,让数据在层次化存储中高效流动。

本文提出的 MetoHash 通过层次化设计、批量持久、指纹过滤、重复合并等关键技术,系统性地解决了现有方案在流量放大与内存效率上的痛点,为高性能键值存储、内存数据库、实时分析等应用提供了强大的底层支撑。

核心理念:三层协同,让数据在混合内存中“各得其所”

传统哈希索引在面对由持久内存(PMem)和动态随机存取内存(DRAM)构成的混合内存系统时,面临一个根本性矛盾:若为追求 PMem 的持久性而将索引完全置于其中,则会因 PMem 较高的访问延迟和固定的写入粒度导致严重的性能下降和 I/O 放大;若为追求速度而将索引完全置于 DRAM,则又无法利用 PMem 的大容量和持久化优势。

MetoHash 的创新核心理念在于“解耦与协同”。它不再将哈希索引视为一个单一的整体,而是将其功能拆解,并根据 CPU 缓存、DRAM 和 PMem 的不同硬件特性进行重新部署,构建了一个三层的高效数据管理流水线。其目标是让热数据、元数据和海量持久化数据分别在最适合的存储层级上被处理,从而在整体上实现高吞吐、低延迟、低流量和高内存效率的统一。


图1 MetoHash 的三层索引结构

核心技术一:缓存辅助的批量收集写入

此技术旨在根治向 PMem 进行小粒度插入时引发的“写放大”(Write Amplification)与频繁桶探测问题。其方案是在持久性 CPU 缓存中预分配多个与 PMem 访问粒度对齐的“收集表”(Collecting Table)。新到达的键值对根据哈希值被直接路由到相应收集表,并通过原子操作实现无锁快速插入,从而充分利用缓存的高速与持久化特性。当一个收集表被填满时,其包含的多个键值对将作为一个完整的、与 PMem 最佳写入粒度匹配的数据单元,被一次性顺序刷写到 PMem 的备份日志中。这种方法彻底消除了因写入粒度不匹配带来的额外 I/O 流量,充分利用 PMem 的写入带宽,同时将零散插入转化为高效批量操作。


图2 持久缓存刷入 DRAM 和 PMem 中

核心技术二:基于 DRAM 指纹的反向精准查找

该技术致力于解决在混合多层索引中查询时在 PMem 层进行盲目、耗时的桶探测的瓶颈。其核心是在 DRAM 中维护一个紧凑的“指纹”目录,其本质为 PMem 主哈希表中的每个键哈希值的一个简短片段。

在进行查询时,系统首先计算查询键的指纹,并利用 SIMD 指令等在 DRAM 指纹目录中进行高速并行比对,迅速筛选出 PMem 中少数几个可能匹配的位置。只有这些候选位置,才需要访问 PMem 进行精确的键值比较。整个查询遵循 PMem 主表 → DRAM 表 → CPU 缓存收集表的反向路径,确保定位到有效值。这一设计将耗时的海量比对操作从慢速的 PMem 转移至高速的 DRAM,极大减少了查询延迟与 PMem 访问压力。


图3 DRAM 结构刷入 PMem 中,并在 DRAM 中保留指纹

核心技术三:段分裂驱动的重复项消除与空间回收

为解决“先插入后检查”模式可能产生的键重复问题以及删除操作导致的空间碎片化问题,MetoHash 在数据结构段分裂中引入合并与清理机制。

首先,DRAM 桶与 PMem 桶在逻辑布局上严格对齐,使得 DRAM 桶满时其内容能高效批量刷写至 PMem 对应位置。当 PMem 中某个段需要分裂以扩容时,系统将旧段所有数据读入 DRAM,在此过程中主动识别并消除同一键的多个版本的无效值,仅保留其最新的有效项,并将合并、去重后的结果写入新分配的段。此过程自然跳过了已标记删除的项,从而在完成容量扩展的同时,一举实现了存储空间的即时回收与整理,保持了 PMem 存储的紧凑性与查询效率。

性能成果

在实际搭载英特尔傲腾持久内存的测试平台上,MetoHash 与八种前沿方案进行了全面对比。

①吞吐量提升:在 YCSB 等各类负载下,其吞吐量平均超越以往方案 86.1% 至 257.6%,并呈现近线性扩展能力。


图4 MetoHash 相较其他基线索引在不同负载下均有明显优势

②变长数据支持:在处理 16B 至 256B 的变长键值时,其吞吐量平均仍领先对比方案 190.8%,尤其在小值主导的负载中优势显著。


图5 MetoHash 相较于其他基线索引在不同键值对大小下均有明显优势

③内存效率权衡:相比将全部索引存于 DRAM 的方案(如 VIPER),MetoHash 的 DRAM 占用减少 86.7%;相比 PMem 利用率低的方案 (如 Plush),MetoHash 的 PMem 占用减少 86.5%。


图6 MetoHash 相较于其他基线索引能够取得较好的 DRAM/PMem 效率权衡

小结

这项工作提出的 MetoHash 混合内存哈希索引,为持久内存时代的高性能、高内存效率数据管理提供了系统的解决方案。在理论上,MetoHash 首次通过缓存、DRAM、PMem 三层协同的架构,解决了由 PMem 固定访问粒度引发的 I/O 放大与内存效率低下这一对核心矛盾。在实践中,其在多种负载下的吞吐量相较当前方案平均提升 86.1% 至 257.6%,存储流量大幅降低,内存占用显著优化,在多种负载中验证了其卓越性能。

欢迎访问 OceanBase 官网获取更多信息:https://www.oceanbase.com/

 Axure RP 是专门给做产品原型的人用的工具,简单说就是能在没写代码前,把网页、APP 的样子和交互流程画出来,让团队或客户提前看到“做出来大概什么样”。

1. 先下载好安装包

安装包下载:https://pan.quark.cn/s/e332231bba32 ,把 AxureRP-Setup.dmg文件下载到你的 Mac

2. 打开 dmg 镜像文件

找到下载好的 .dmg文件,双击它——屏幕会弹出一个新窗口,里面一般有俩东西:一个是“Axure RP”的图标(一般是紫色或蓝色方块,上面有“A”字母),另一个是“应用程序”文件夹的快捷方式(小文件夹图标)。

3. 把软件拖进“应用程序”文件夹

按住“Axure RP”图标,直接拖到旁边的“应用程序”文件夹里(跟平时拷贝文件一样),等进度条走完,这一步就装好了。

4. 首次打开要“解锁”(重点!)

去“应用程序”文件夹找到 Axure RP,双击打开。第一次运行时,macOS 会弹提示“无法验证开发者”,别慌:

  • 点左上角苹果图标 → 选“系统设置”(旧版叫“系统偏好设置”)→ 左侧点“隐私与安全性”;
  • 右边往下翻,找到“安全性”区域,会看到“已阻止使用‘Axure RP’,因为来自身份不明的开发者”,下面有个“仍要打开”按钮,点一下,再输开机密码确认就行(如果没看到“仍要打开”,先关掉提示窗口,重新打开软件,提示会再出现)。

亚马逊云科技(AWS)已将其欧洲主权云服务(European Sovereign Cloud)推向全面可用,该服务在物理和逻辑上分离的基础设施上投资了78亿欧元。该服务现已在德国勃兰登堡州提供,旨在应对欧洲的监管要求以及对美国访问数据的日益增长的地缘政治担忧。尽管 AWS 强调,该云服务将完全由欧盟居民在新的德国母公司结构下运营,但关于这种分离是否真的能抵御美国政府的数据请求,仍存在重大疑问。

 

该基础设施使用分区名称 aws-eusc 和区域名称 eusc-de-east-1,完全独立于 AWS 的全球区域运行。所有组件,包括专用的 IAM、计费系统和使用欧洲顶级域名的 Route 53 名称服务器,都保留在欧盟境内。AWS 欧洲主权云有限责任公司(AWS European Sovereign Cloud GmbH)是一家成立的德国母公司,拥有三个子公司,分别负责基础设施、证书管理和就业,负责运营。欧盟公民Stéphane Israël担任总经理,与 AWS 德国和中欧副总裁Stefan Hoechbauer一起担任董事总经理。

 

一位将服务部署到欧洲主权云的 AWS 软件开发工程师证实了技术隔离在实践中的存在。该工程师在 Hacker News 上写道

 

AWS 已经在欧洲主权云(ESC)和全球 AWS 之间建立了适当的界限。由于我在美国,我看不到 ESC 中的任何活动,即使是我们开发的服务。为了解决这个问题,我们必须与 ESC 中的工程师进行电话沟通……所有数据确实 100%保留在 ESC 中。

 

该工程师还警告要注意权衡,指出隔离“确实减慢了调试问题的速度。本来一两天就能解决的问题可能需要一个月。”

 

尽管存在这种技术隔离,从业者和分析师对法律保护提出了根本性的担忧。独立技术顾问 Sam Newman 在 LinkedIn 上写道

 

除非我误解了美国的爱国者法案(这是可能的),否则新的欧盟 AWS 主权云服务并不能保护客户数据免受美国政府的访问。所以我不太确定这是为了什么,除了公司想要支付(我假设)溢价,让自己看起来像是在面对更不稳定的美国政权做些事情。

 

ICT 解决方案协调员 Marko Teklic 也表达了类似的担忧,他指出,根据外国情报监视法和CLOUD法案,AWS 作为一家总部位于美国的公司,仍然受美国对其欧洲业务的管辖。CLOUD 法案允许美国当局无论云服务提供商的物理位置如何,都可以要求云服务提供商提供数据。法院可以要求母公司提供子公司持有的数据,这可能使 AWS 欧洲主权云有限责任公司的独立结构在法律上不足。

 

Reddit 上的一位评论者概述了这种机制

 

该法案适用于“所有在美国运营或在美国合法存在的电子通信服务或远程计算服务提供商。”法院可以要求母公司提供其子公司持有的数据。

 

一些人认为 AWS 的结构可能会提供保护。一位 Hacker News 用户建议,在欧洲的治理下,亚马逊可以告诉美国政府,欧盟员工拒绝遵守数据请求,因为这样做将违反欧盟法律。怀疑论者反驳说,AWS 可以通过向当地员工模糊命令或临时派遣美国员工到欧洲来绕过这一点。

 

从业者提出了 AWS 尚未回答的尖锐问题。S. Maud 在 Jeff Barr 的 LinkedIn 帖子上询问,如果美国政府针对存储在主权云中的军事行动数据发出 CLOUD 法案令状,AWS 是否会遵守。Sebastian Vogelsang 对远程干预提出了技术性担忧:

 

什么阻止了远程关闭开关?如果 AWS 公司或美国政府指示禁用这个基础设施,有什么技术或法律机制可以阻止这一点?软件堆栈是完全独立的,还是依赖于可能从欧盟外部撤销的许可证、更新或控制平面?

软件信任问题超出了运营范围。虽然 Hacker News 评论者指出,AWS 的 Nitro 虚拟化团队设在柏林,但人们对更广泛的 AWS 软件堆栈仍然存在疑问。是否对后门进行过审计?在美国开发的代码是否包含了远程访问机制?

 

当被问及 AWS 欧洲主权云是否类似于 AWS 的中国区域时,首席云架构师 Ivo Pinto确认这是“甚至比 govcloud 更好的比较”。然而,有一个关键区别:AWS 中国通过独立的中国公司(Sinnet 和 NWCD)运营,而 AWS 欧洲主权云完全由 Amazon.com Inc.拥有。

 

CarMax 的 Eric Swanson 解释了这一服务的实际效果:

 

美国所有权和总部意味着,无论基础设施在哪里运行,美国法律仍然可以适用于提供商。主权云服务并不凌驾于爱国者法案之上。它们主要减少了在其他背景下的重叠:数据位置、运营控制、员工访问和客户管辖区。

 

在没有美国所有权的情况下寻求主权的组织可以在欧洲找到替代方案,包括德国提供商 Hetzner、法国提供商 Scaleway、瑞士提供商 Infomaniak,以及 StackIT by Schwarz Digits(Lidl 的母公司),许多在 LinkedIn 和 Reddit 上的评论者强调这些是真正的欧洲主权云选项。

 

该服务推出了大约 90 个 AWS 服务,计划通过在比利时、荷兰和葡萄牙的主权本地区域进行扩展。AWS 预计 7.8 亿欧元的投资将在 20 年内为欧洲经济贡献 172 亿欧元。

 

AWS 现在的竞争对手是微软和谷歌云与泰雷兹开发的 S3NS。Mark Surrow 在 LinkedIn 上指出,微软“不得不在法国法院直接承认”它不能保证欧盟客户的数据主权。一个根本性的问题仍然存在:任何美国所有的主权云能否在 CLOUD 法案和 FISA 下保护欧洲数据免受美国政府访问?在 AWS 回答这个问题之前,有严格主权要求的组织可能会寻找其他地方。

 

原文链接:

https://www.infoq.com/news/2026/01/aws-european-sovereign-cloud/

在toB市场, “获客精准度”“转化效率”“数据协同”是企业增长的三大核心痛点。传统销售模式下,线索分散、跟单无标准、数据割裂等问题,往往导致“获客成本高、转化漏斗漏损大”。而CRM系统作为toB企业的“增长引擎”,其核心价值在于通过全流程闭环能力,将“精准获客-数据治理-智能跟单-目标落地-复盘优化”串联,最终实现“从线索到现金”的高效转化。

本文将围绕toB企业获客-转化闭环的六大关键能力(工商搜客精准获客、客户查重与工商信息补全、AI跟单智能体推进商机、销售目标管理、自动日报与行动记录分析、全流程闭环整合),对超兔一体云、SAP、Microsoft Dynamics 365、Salesforce、销售易等主流CRM品牌展开深度横向对比,并通过图表具象化各品牌的优劣势,为企业选型提供参考。

    • *

一、关键能力框架解析:toB获客-转化闭环的底层逻辑

toB获客-转化闭环的本质,是“数据驱动+流程自动化+AI赋能”的组合拳。以下是六大关键能力的定义与价值:

暂时无法在飞书文档外展示此内容

    • *

二、六大关键能力横向对比:品牌优劣势深度拆解

以下从功能定义、品牌表现、差异点三个层面,对各品牌的关键能力展开对比。

1. 工商搜客精准获客:toB企业的“精准获客手术刀”

定义:针对toB企业需求,基于工商数据库(企业名称、经营范围、注册信息等)筛选潜在客户的专属工具,核心解决“线索精准度”问题。

品牌能力表现核心优势
超兔一体云toB专用工商搜客,整合工商数据库,支持行业/规模/地域筛选;一键加线索并自动获取归属地,线索分配自动提醒toB专属,精准匹配工商特征
SAP未明确提及原生“工商搜客”,通过端到端流程自动化覆盖线索捕获,整合工商与ERP数据辅助谈单适合已有ERP的中大型企业
Microsoft Dynamics 365多渠道线索捕获(官网/社交媒体/线下)+工商信息补全,Copilot AI生成销售趋势见解辅助获客生态整合+AI分析
SalesforceSales Cloud整合多渠道线索,Einstein Analytics纳入工商维度(行业/规模)筛选高价值客户AI画像精准度高
销售易未明确提及“工商搜客”,支持多渠道线索接入,通过“老客商机挖掘”激活沉睡客户复购商机挖掘能力强

差异点: 超兔一体云是唯一明确提及“toB专用工商搜客”的品牌,直接命中toB企业“找对客户”的核心需求;而SAP、Dynamics 365等品牌更侧重“线索捕获后的流程整合”,需依赖外部数据补充工商信息。

2. 客户查重与工商信息补全:数据治理的“地基”

定义:通过查重规则避免重复客户录入,自动补全工商背景信息(注册资本、成立时间、经营范围等),构建统一客户视图。

品牌能力表现核心优势
超兔一体云支持客户名/手机号查重,企业客户自动简称模糊查重;自动补全工商信息(天眼查/百度),手机号获取微信头像,地址标记经纬度自动模糊查重+多维度信息补全
SAP整合工商信息与ERP数据(库存/应收账款),构建360°视图,联动供应链辅助谈单ERP数据协同
Microsoft Dynamics 365360°客户视图整合工商与历史互动,支持查重与补全,GDPR合规保障数据安全数据隐私保护
Salesforce内置重复客户检测规则,支持自定义字段补全工商信息(统一社会信用代码/法定代表人)灵活性高
销售易360°全生命周期客户管理,客户信息集中管理,未明确提及工商补全全生命周期覆盖

差异点: 超兔一体云“自动简称模糊查重”是特色(如“阿里”与“阿里巴巴”自动识别为同一客户),解决了toB企业“客户名称简称多”的痛点;而Dynamics 365的GDPR合规能力,更适合有海外业务的企业。

3. AI跟单智能体推进商机:转化效率的“加速器”

定义:嵌入销售流程的AI助手,通过分析业务数据(客户历史、跟单阶段),提供个性化跟单建议,推动商机向成交转化。

品牌能力表现核心优势
超兔一体云低门槛自定义AI智能体,嵌入客户/机会/项目视图,自动获取业务数据作为入参;支持小单快单/商机跟单/多方项目模型业务场景深度融合
Microsoft Dynamics 365Copilot AI生成邮件草稿/会议摘要,用BANT模型(预算/权限/需求/时间)评估商机优先级流程标准化+AI分析
SalesforceEinstein GPT提供智能话术推荐、商机优先级排序,自动生成跟进提醒;Einstein Analytics预测购买意图AI深度融入销售流程
销售易AI Native CRM,NeoAgent智能体+Customer Data Cloud(融合腾讯混元大模型),商机预测误差率<5%AI原生+复购商机挖掘
SAP无原生AI智能体,需集成第三方工具(如SAP AI Business Services)实现智能跟进生态兼容

差异点: 超兔一体云的“低门槛自定义智能体”(无需代码即可嵌入业务视图),适合中小企业快速落地;Salesforce的Einstein GPT更侧重“智能话术与提醒”;销售易的NeoAgent则针对“复购商机”优化,适合需要提升老客价值的企业。

4. 销售目标管理:业绩落地的“导航仪”

定义:将企业战略目标拆解为部门/个人/阶段目标,实时监控进度,确保销售动作与目标对齐。

品牌能力表现核心优势
超兔一体云支持年度/季度/月度目标设定,逐层分解到部门/个人;实时监控目标完成率,图表化展示目标分解颗粒度细
SAP多维度业绩追踪(区域/产品/团队),可视化销售漏斗管理商机阶段复杂流程适配
Microsoft Dynamics 365Power BI实现目标可视化,实时监控团队进度,自动生成差距分析数据可视化能力强
Salesforce目标管理工具设定团队/个人目标(成交额/新增客户数),销售云报表实时监控进度灵活性高
销售易目标分解到部门/个人/业务环节,结合成本分析与交易自动化(报价到签约)目标与流程联动

差异点: 超兔一体云的“逐层分解+实时监控”更贴近中小企业“目标落地”的需求;而Dynamics 365的Power BI与Salesforce的销售云报表,更适合需要“数据可视化”的中大型企业。

5. 自动日报与行动记录分析:复盘优化的“后视镜”

定义:自动总结当日工作内容,记录销售行动轨迹(拜访/电话/邮件),分析行动效果,辅助优化销售策略。

品牌能力表现核心优势
超兔一体云自动分析客户沟通/报价/订单数据,生成含“销售概述/意向评估/卡单问题”的专业日报;记录行动轨迹,分析工作效率并提供个性化建议日报内容深度+行动分析精准
Microsoft Dynamics 365自动生成日报与行动记录,Copilot AI总结关键行动与待办事项AI辅助复盘
Salesforce销售云报表自动记录活动,生成日报,分析跟进效率/沟通效果与销售流程深度联动
SugarCRM自动记录电话/邮件/任务,生成日报,分析跟进频率/沟通内容开源定制灵活
SAP未明确提及相关功能-

差异点: 超兔一体云的“卡单问题点”是日报的核心亮点——不仅总结工作,更直接指出“阻碍转化的关键问题”,帮助销售快速定位改进方向;而Dynamics 365、Salesforce等品牌的日报更侧重“行动记录”,需手动分析问题。

6. 全流程闭环整合:增长飞轮的“发动机”

定义:将“获客-查重-跟单-目标-复盘”各环节数据打通,实现“线索进、现金出”的循环,最终驱动复购与转介绍。

暂时无法在飞书文档外展示此内容

品牌闭环能力表现核心优势
超兔一体云工商搜客→线索分配→AI跟单→目标监控→自动复盘→复购,全环节数据打通,无信息断层闭环链路最短
Microsoft Dynamics 365多渠道获客→Copilot AI分析→商机推进→Power BI监控→自动复盘,生态整合完善生态协同能力强
Salesforce多渠道线索→Einstein画像→智能跟单→目标管理→销售云复盘,AI深度赋能AI驱动闭环
销售易多渠道线索→AI商机预测→智能跟单→目标分解→BI分析,复购商机挖掘能力强复购闭环优化
SAP线索捕获→ERP联动→流程自动化→目标追踪,适合复杂供应链场景大型企业流程适配

差异点: 超兔一体云的闭环“更聚焦toB中小微企业”,环节简洁、易落地;而Dynamics 365、Salesforce的闭环更侧重“生态整合与AI深度”,适合需要数字化转型的中大型企业。

    • *

三、综合能力对比:雷达图与选型建议

1. 雷达图评分(1-5分,5分为最优)

维度超兔一体云SAPMicrosoft Dynamics 365Salesforce销售易
工商搜客精准获客53443
客户查重与工商补全54544
AI跟单智能体52454
销售目标管理44444
自动日报与行动分析51443
全流程闭环整合54554

2. 选型建议

企业需求推荐品牌理由
需精准工商获客+低门槛AI跟单超兔一体云唯一toB专用工商搜客,AI智能体嵌入业务视图,自动日报直接点出卡单问题
已有ERP系统+复杂流程整合SAP端到端流程自动化,工商与ERP数据联动,适合中大型企业
注重AI赋能+生态整合Microsoft Dynamics 365/SalesforceDynamics 365的Copilot AI+Power BI;Salesforce的Einstein系列+AppExchange生态
需提升复购率+AI原生能力销售易NeoAgent智能体+老客商机挖掘,AI Native CRM适配复购场景
依赖社交渠道获客钉钉CRM/腾讯企点CRM钉钉集成聊天/审批;腾讯企点覆盖微信生态,适合社交化获客
    • *

四、结论:toB CRM的“增长逻辑”

从对比中可见,toB CRM的核心竞争力已从“流程记录”转向“精准获客+智能转化+闭环优化”。超兔一体云的“工商搜客+自动日报”、Salesforce的“Einstein AI”、Dynamics 365的“生态整合”,分别代表了不同企业的需求侧重。

对于toB企业而言,选型的关键不是“选最知名的”,而是“选最贴合自身业务场景的” ——中小微企业需优先考虑“精准获客与易落地”,中大型企业需侧重“生态整合与AI深度”,而复购型企业则应关注“老客商机挖掘”。

未来,toB CRM的趋势将是“更垂直的行业适配+更深度的AI嵌入+更短的闭环链路”。谁能解决“找对客户、跟对流程、算清账”的核心问题,谁就能成为企业增长的“引擎”。

    • *

附录:关键能力对比表格(完整版)

品牌工商搜客精准获客客户查重与工商补全AI跟单智能体销售目标管理自动日报与行动分析全流程闭环整合
超兔一体云是(toB专用)是(自动模糊查重)是(低门槛自定义)是(逐层分解)是(含卡单问题)是(全环节打通)
SAP否(流程覆盖)是(ERP联动)否(需集成)是(多维度追踪)是(复杂流程)
Microsoft Dynamics 365否(多渠道+补全)是(GDPR合规)是(Copilot AI)是(Power BI)是(AI辅助)是(生态整合)
Salesforce否(AI画像)是(自定义字段)是(Einstein GPT)是(目标工具)是(销售云报表)是(AI驱动)
销售易否(多渠道)是(360°视图)是(NeoAgent)是(分解+成本)否(BI分析)是(复购优化)
钉钉CRM是(协同优先)

(注:“是”代表明确具备该能力,“否”代表未明确提及或需集成第三方工具。)

(注:文中功能相关描述均基于公开披露信息,具体功能服务与价格以厂商实际落地版本为准。)

摘要

插件作为大模型与智能体突破原生能力边界、实现场景化功能落地的核心载体,是从 “通用 AI 能力” 到 “行业专属解决方案” 的关键桥梁。本文从插件的核心定义与价值出发,系统拆解大模型 / 智能体插件的底层工作逻辑,梳理从 0 到 1 的插件认知、选型、使用、定制全流程,详解不同场景下的插件搭配技巧与避坑指南,同时结合行业实操案例给出落地建议,并补充高频 QA 问答解决入门核心痛点,帮助零基础从业者快速掌握插件使用逻辑,实现大模型与智能体的能力最大化延伸,玩转插件生态的核心玩法。​关键词​:插件;大模型插件;智能体插件;AI 工具使用;从 0 到 1 学插件;插件定制;AI 能力延伸;智能体生态

一、插件的核心认知:大模型与智能体的 “能力扩展卡”

1.1 插件的定义与核心价值

插件是为大模型、智能体量身打造的​模块化功能扩展组件​,通过标准化接口与大模型 / 智能体核心系统对接,无需改变底层模型架构,即可快速为其新增专属功能、接入外部数据、实现跨平台联动。简单来说,大模型 / 智能体的原生能力是 “通用基础款”,而插件就是 “个性化拓展包”,让 AI 从 “能说会想” 升级为 “能做会干”。

其核心价值体现在三大维度:

  • 突破能力边界​:弥补大模型 “知识滞后、计算薄弱、无实操能力” 的短板,比如通过计算器插件解决数学运算、通过翻译插件实现多语种精准转换、通过数据分析插件完成数据可视化;
  • 适配场景落地​:针对办公、学习、研发、电商等不同场景,提供定制化功能,让通用 AI 适配专属需求,比如自媒体从业者用排版插件、程序员用代码调试插件、运营者用数据统计插件;
  • 降低使用门槛​:无需掌握 AI 开发技术,普通用户通过一键安装插件,即可让大模型 / 智能体具备专业能力,实现 “零代码玩转高阶 AI”。

1.2 插件与大模型、智能体的底层工作逻辑

插件与大模型 / 智能体的协作遵循 **“调用 - 执行 - 反馈”** 的闭环逻辑,核心分为三步,零基础也能轻松理解:

  1. 需求识别​:用户向大模型 / 智能体发出指令后,其核心系统先判断原生能力是否能满足,若无法满足则自动匹配已安装的对应插件;
  2. 插件调用​:核心系统通过标准化接口向插件发送执行指令,插件承接需求后完成专属处理(如数据计算、外部查询、功能执行);
  3. 结果反馈​:插件将处理结果回传给核心系统,由大模型 / 智能体整理成自然语言或可视化结果,反馈给用户。

整个过程毫秒级完成,用户感知不到底层调用逻辑,仅需发出自然语言指令,即可实现插件功能的无缝使用,这也是插件能快速普及的核心原因。

1.3 插件的核心分类:按功能与使用场景划分

目前主流的大模型 / 智能体插件生态,按功能属性可分为 6 大类,覆盖绝大多数日常与工作场景,零基础入门可先从高频通用类开始掌握:

插件分类核心功能典型代表适用人群 / 场景
通用工具类解决基础办公 / 学习需求计算器、翻译、思维导图、OCR全体用户,日常办公 / 学习
数据处理类数据统计、分析、可视化表格分析、数据可视化、SQL 查询运营、分析师、财务人员
内容创作类辅助内容生产、优化、排版文案润色、图文排版、字幕生成自媒体、文案、教师
研发开发类代码编写、调试、漏洞检测代码解释、Bug 修复、接口调试程序员、开发工程师
跨平台联动类实现 AI 与其他工具的无缝对接办公软件、云盘、思维导图工具全体用户,多工具协同办公
行业专属类适配特定行业的专业需求电商选品、医疗咨询、法律检索电商运营、医护、法律从业者

二、从 0 到 1:插件使用全流程,新手也能一步到位

2.1 第一步:选对平台 —— 插件生态的核心载体

插件的使用依赖于支持插件功能的大模型 / 智能体平台,零基础入门优先选择插件生态完善、操作门槛低、免费插件多的主流平台,避免因平台小众导致插件资源少、使用难度高,以下是目前最适合新手的三大主流平台,各有优势:

  1. 通用大模型平台​:ChatGPT(4o 及以上版本)、文心一言 4.0、讯飞星火 V4.0,插件生态完善,覆盖全品类插件,操作界面简洁,一键安装即可使用,适合全场景需求;
  2. 智能体专属平台​:Coze、LangChain Bot,主打智能体插件联动,支持插件自定义编排,适合需要多插件协同完成复杂任务的场景;
  3. 办公类 AI 平台​:WPS AI、飞书智谱,插件与办公软件深度融合,主打办公场景专属插件,适合职场办公人群。

新手建议​:优先从 ChatGPT 或文心一言入手,插件资源最丰富,操作最简洁,能快速完成从 0 到 1 的插件使用入门。

2.2 第二步:插件选型 —— 按需选择,拒绝盲目安装

插件并非越多越好,盲目安装大量插件会导致大模型 / 智能体响应变慢、匹配插件出错,零基础入门的核心原则是 **“刚需优先、少而精”**,按 “场景 - 需求 - 插件” 的逻辑选型,具体步骤:

  1. 明确使用场景​:确定自己使用大模型 / 智能体的核心场景,比如是日常办公、自媒体创作,还是编程开发;
  2. 梳理核心需求​:从场景中提炼需要解决的具体问题,比如办公场景需要 “PDF 解析、表格制作”,创作场景需要 “文案润色、图文排版”;
  3. 匹配对应插件​:根据需求选择功能精准的插件,比如 PDF 解析选专属 OCR 插件,文案润色选内容创作类插件,避免一个需求安装多个同类插件。

新手避坑​:同一功能的插件只需安装 1-2 个即可,比如翻译插件无需同时安装百度翻译、谷歌翻译、DeepL 翻译,选择适配自己使用习惯的一款即可。

2.3 第三步:基础使用 —— 一键安装,三步玩转核心功能

主流平台的插件操作均实现​可视化、零代码​,零基础用户无需掌握任何技术,只需三步即可完成插件的安装与使用,以通用大模型平台为例,操作流程高度统一:

  1. 插件市场入口​:登录平台后,在侧边栏或设置中找到「插件市场 / 应用中心」,这是所有插件的集中入口;
  2. 一键安装插件​:在插件市场中搜索需要的插件,点击「安装 / 启用」,平台会自动完成接口对接,安装完成后插件会出现在「已安装插件」列表中;
  3. 自然语言调用​:无需额外操作,直接向大模型 / 智能体发出自然语言指令,系统会自动匹配插件执行,比如安装了计算器插件后,直接说 “计算 10000 元按年化 3.5% 计息,存 5 年的复利是多少”,系统会自动调用插件计算并给出结果。

小技巧​:若系统未自动匹配插件,可在指令中明确提及插件名称,比如 “用思维导图插件把《从 0 到 1 玩转插件》的核心框架做成思维导图”,提升插件调用精准度。

2.4 第四步:进阶搭配 —— 多插件协同,实现复杂任务落地

当掌握单一插件的使用后,可通过​多插件协同搭配​,让大模型 / 智能体完成更复杂的场景化任务,这是 “玩转插件” 的核心进阶技巧。多插件搭配的核心逻辑是 **“按任务流程拆解,依次匹配插件”**,举 3 个高频场景的经典搭配案例,新手可直接照搬:

案例 1:办公场景 —— 快速完成一份市场分析报告

任务流程​:解析市场调研 PDF 数据 → 整理成表格 → 进行数据可视化 → 生成分析报告​插件搭配​:PDF 解析插件(OCR)+ 表格分析插件 + 数据可视化插件 + 文案创作插件​使用指令​:“用 PDF 解析插件提取这份市场调研文件的核心数据,用表格分析插件整理成销售数据表格,再用数据可视化插件生成柱状图,最后用文案创作插件基于数据生成一份 500 字的市场分析报告”

案例 2:创作场景 —— 打造一篇自媒体爆款推文

任务流程​:生成推文选题 → 撰写推文文案 → 优化排版 → 生成配图思路​插件搭配​:选题生成插件 + 文案润色插件 + 图文排版插件 + 创意设计插件​使用指令​:“用选题生成插件给美妆品类生成 3 个小红书爆款选题,选其中一个用文案润色插件撰写 800 字推文,用图文排版插件优化排版格式,最后用创意设计插件给出推文配图思路”

案例 3:研发场景 —— 快速调试一段 Python 代码

任务流程​:检查代码漏洞 → 修复 Bug→ 解释代码逻辑 → 生成注释​插件搭配​:代码检测插件 + Bug 修复插件 + 代码解释插件 + 注释生成插件​使用指令​:“用代码检测插件检查这段 Python 代码的漏洞,用 Bug 修复插件修正错误,用代码解释插件逐行说明逻辑,最后用注释生成插件为代码添加标准注释”

2.5 第五步:高阶定制 —— 打造专属插件,适配个性化需求

当现有插件无法满足专属需求时,可尝试​插件定制​,目前主流平台均提供​低代码 / 零代码插件定制工具​,零基础用户也能从 0 到 1 打造自己的专属插件,核心流程分为 4 步,无需掌握复杂开发技术:

  1. 明确定制需求​:确定专属插件的核心功能、使用场景、输入输出要求,比如定制一款 “电商商品标题优化插件”,核心功能是根据商品属性生成高点击率标题;
  2. 选择定制平台​:优先选择平台自带的插件定制工具,如 ChatGPT 的 Plugin Builder、文心一言的插件开发平台,无需对接复杂接口,可视化操作;
  3. 配置插件功能​:在定制工具中,通过拖拽、选择、填写参数的方式,配置插件的核心功能,比如为电商标题插件设置 “商品属性输入框、标题风格选择(简约 / 爆款 / 专业)、标题字数限制” 等;
  4. 测试与发布​:完成配置后,进行多次测试,验证插件功能是否符合预期,测试通过后即可发布到自己的插件列表,实现专属使用,部分平台还支持将定制插件分享到插件市场。

新手建议​:入门阶段先从简单功能插件开始定制,比如 “专属话术生成插件”“日常打卡插件”,熟悉定制逻辑后,再尝试复杂功能插件。

三、插件使用的核心避坑指南:新手少走 90% 的弯路

从 0 到 1 玩转插件,不仅要会用,更要会​避坑​,结合大量新手实操案例,梳理出 6 个最易踩的坑,以及对应的解决方案,帮新手快速避开误区:

3.1 坑 1:盲目安装大量插件,导致系统响应变慢

问题​:认为插件越多功能越全,安装数十个同类插件,导致大模型 / 智能体匹配插件时耗时增加,响应变慢,甚至出现插件冲突。​解决方案​:遵循 “​刚需安装、定期清理​” 原则,仅安装当前场景需要的插件,每 1-2 周清理一次未使用的插件,保持已安装插件列表简洁。

3.2 坑 2:忽略插件权限,导致数据安全风险

问题​:安装插件时随意授权,部分插件会请求访问用户的聊天记录、上传文件、个人数据等权限,导致数据泄露风险。​解决方案​:安装插件前​必看权限说明​,拒绝授权与插件功能无关的权限,比如一款计算器插件若请求访问聊天记录,直接拒绝安装;优先选择平台官方开发的插件,第三方插件需确认资质后再安装。

3.3 坑 3:指令描述模糊,导致插件调用失败

问题​:向大模型 / 智能体发出的指令过于模糊,系统无法准确匹配插件,比如只说 “帮我处理这份数据”,未说明具体处理需求。​解决方案​:指令描述遵循 **“场景 + 需求 + 插件”** 的三要素原则,明确告知系统要做什么、用什么插件做,比如 “在电商场景下,帮我用选品插件分析抖音美妆类目的爆款商品数据”。

3.4 坑 4:过度依赖插件,忽视大模型原生能力

问题​:任何需求都想通过插件解决,即使大模型原生能力能轻松完成,比如用翻译插件翻译简单的日常语句,反而增加操作成本。​解决方案​:先判断​需求是否需要插件​,大模型原生的自然语言理解、文案创作、逻辑分析等能力能解决的问题,无需调用插件,让插件成为 “补充能力” 而非 “唯一能力”。

3.5 坑 5:未及时更新插件,导致功能失效

问题​:插件安装后长期不更新,当大模型 / 智能体平台升级或插件底层功能调整时,出现插件调用失败、功能失效的问题。​解决方案​:开启插件的​自动更新功能​,或定期在插件市场检查已安装插件的更新状态,及时更新至最新版本,保证插件功能正常使用。

3.6 坑 6:多插件搭配逻辑混乱,导致任务执行出错

问题​:多插件协同时,未按任务流程合理搭配,插件顺序混乱,导致系统无法按预期执行,比如先让数据可视化插件生成图表,再让 PDF 解析插件提取数据。​解决方案​:多插件搭配前,先​梳理任务的先后流程​,按 “先输入、再处理、最后输出” 的逻辑匹配插件,确保插件调用顺序与任务流程一致,避免逻辑混乱。

四、插件生态的未来发展趋势:大模型与智能体的核心竞争力

插件作为大模型与智能体实现 **“能力落地、生态繁荣”** 的核心载体,其发展趋势与大模型、智能体的技术迭代深度绑定,未来三大发展方向值得关注,也是新手玩转插件需要提前布局的重点:

4.1 插件轻量化:零代码定制成为主流,全民可造插件

未来插件的开发门槛将持续降低,低代码 / 零代码定制工具将成为行业标配,不仅专业开发者能打造插件,普通用户也能通过简单的参数配置、功能拖拽,打造自己的专属插件,实现 “全民造插件” 的生态格局,插件将从 “专业产品” 变为 “个人化工具”。

4.2 插件智能化:智能体自主完成插件编排与适配

大模型与智能体的能力持续升级,未来将具备​自主插件编排能力​—— 用户只需发出核心需求,无需指定插件,智能体就能根据任务逻辑,自主选择、搭配、调用插件,完成复杂任务。比如用户说 “帮我完成一份年度销售总结”,智能体将自主匹配数据提取、表格分析、可视化、文案创作等插件,全程无需人工干预。

4.3 插件生态化:跨平台插件互联互通,形成全域能力网络

不同大模型、智能体平台的插件生态将从 “孤立发展” 走向 “互联互通”,通过标准化的插件接口,实现跨平台插件的无缝调用,比如在智能体平台可直接调用大模型的办公插件,在办公软件中可直接调用智能体的行业插件,形成覆盖全场景、跨平台的​插件能力网络​,让 AI 的能力延伸到每一个工作与生活场景。

五、行业高频 QA 问答

5.1 零基础新手,先从哪类插件开始学习使用最合适?

优先从通用工具类插件入手,比如计算器、翻译、PDF 解析、思维导图插件。这类插件功能简单、使用频率高、适配全场景,无需专业知识就能快速上手,能帮助新手快速熟悉插件的安装、调用逻辑,建立使用信心,掌握后再逐步拓展到内容创作、数据处理等专项插件。

5.2 免费插件和付费插件的区别是什么,新手需要付费购买插件吗?

核心区别在于​功能精准度、使用限制、专属服务​:免费插件能满足基础需求,部分存在使用次数、功能简化的限制;付费插件功能更精准、无使用限制,部分还提供专属售后与定制化优化。新手​无需过早付费​,目前主流平台的免费插件已能覆盖 90% 的日常与工作需求,建议先通过免费插件掌握使用逻辑,当现有免费插件无法满足核心工作需求时,再针对性购买付费插件。

5.3 不同大模型 / 智能体平台的插件可以互通使用吗?

目前多数平台的插件​暂不支持直接互通​,因各平台的插件接口标准、底层逻辑存在差异,比如 ChatGPT 的插件无法直接在文心一言中使用。但未来随着行业标准化推进,跨平台插件互联互通将成为趋势,现阶段若需要在多个平台使用同类功能,可在各平台分别安装对应的同款或同类插件。

5.4 安装插件后,大模型 / 智能体的响应速度变慢,该怎么解决?

可按以下步骤逐一排查解决:1. 清理未使用的插件,卸载同类冗余插件,减少插件匹配压力;2. 检查插件是否为最新版本,及时更新失效插件;3. 若使用多插件协同,尝试拆分任务,单次仅调用 1-2 个插件,避免同时调用大量插件;4. 关闭平台后台无关程序,保证网络通畅,提升接口传输速度。

5.5 如何判断一款插件是否适合自己,有没有核心筛选标准?

核心筛选标准有 4 点:1. ​功能匹配​:插件核心功能与自己的核心需求高度契合,无多余无效功能;2. ​操作简单​:零基础能快速上手,无需复杂的参数配置;3. ​权限安全​:插件请求的权限与功能匹配,无过度授权;4. ​口碑良好​:在插件市场中评分高、评论正面,官方开发或第三方资质可靠,避免使用小众无资质插件。

5.6 新手可以尝试开发插件吗,需要掌握哪些基础技能?

新手可以尝试,目前主流平台的​低代码 / 零代码定制工具​,让零基础用户也能开发简单插件,无需掌握复杂的编程技术。若仅做基础定制,只需掌握​需求梳理能力​,能明确插件的功能、使用场景即可;若想开发更复杂的插件,可逐步学习简单的编程基础(如 Python)、API 接口知识,提升定制能力。

六、结论

从 0 到 1 玩转插件,本质是掌握​大模型与智能体的能力延伸逻辑​—— 插件并非简单的 “功能工具”,而是让通用 AI 技术落地到具体场景的核心桥梁。对于零基础从业者而言,无需畏惧技术门槛,从核心认知入手,按 “选型 - 安装 - 使用 - 搭配 - 定制” 的全流程逐步推进,避开盲目安装、权限泄露、指令模糊等核心误区,就能快速掌握插件的核心玩法。

插件生态的发展,正推动大模型与智能体从 “通用能力” 向 “个性化、场景化能力” 升级,未来随着插件的轻量化、智能化、生态化发展,插件将成为每一个 AI 使用者的必备工具。新手只需从当下开始,从一款插件、一个场景入手,边用边学、边练边进阶,就能在插件生态中找到适合自己的使用方法,真正实现 “玩转插件”,让大模型与智能体成为工作与生活的高效助手,释放 AI 的最大价值。

参考文献

[1] 斯坦福大学. AI 指数报告 2026 [R]. 斯坦福大学人类与人工智能研究院,2026.
[2] 中国人工智能产业发展联盟。大模型插件生态建设与应用指南 2026 [R]. 2026.
[3] 字节跳动 AI 实验室. Coze 智能体插件平台开发与使用手册 2026 [R]. 2026.
[4] OpenAI 官方文档. ChatGPT Plugin 开发与使用指南 [Z]. 2026.
[5] 百度 AI 研究院。文心一言插件生态与场景落地实践 2026 [R]. 2026.
[6] 知乎科技研究院. 2026 年 AI 插件使用行为分析报告 [R]. 2026.

我一直用 Bark ,很喜欢:省心、稳定,作者也一直在更新。PushGo 这个坑某种程度上就是从 Bark 开始的,先向作者致敬🫡。

后来我自己维护的东西越来越多:服务器、CI 、脚本任务、家里设备……推送一开始还能靠“多发点提醒”解决,但很快就会变成另一种麻烦:消息很难整理。同一件事会从不同来源冒出来(监控、脚本、日志、告警),通知列表里一堆“碎片”,你要自己在脑子里拼图:到底发生了什么、现在处于什么状态、是偶发还是持续、有没有恢复。

所以我干脆自己写了个 PushGo ,目前它的定位很明确:先把“收消息 + 更好整理”做好。后面再慢慢往更通用、更可扩展的方向演进。

PushGo 的思路

PushGo 的思路和 Bark 不太一样,更像 MQTT / Ntfy 那套:频道 + 订阅( pub/sub )

你创建频道、订阅频道,消息按主题走,路由和转发会灵活很多;未来不管是扩展更多推送渠道,还是把消息类型做得更丰富,这种结构都更顺手。

  • 目前已经完成 iOS / watchOS / macOS + Android ( FCM )平台适配,全部原生开发,apple 平台使用 Swift ,Android 平台使用 Kotlin
  • WNS 和自有推送渠道正在路上,国内无法访问 FCM 的问题,自有渠道上线后就会得到解决
  • 公共网关已部署,并且支持自部署网关
  • 消息正文支持文本和部分 markdown 标签,可以渲染轻量级表格
  • 消息支持 AES-GCM 加密,网关不保留任何与解密有关的数据
  • 永久完全免费,不管客户端还是网关,纯公益运营

未来方向

  • 客户端会持续推进更多平台支持,并不仅限于高性能设备,比如目前我自己就在做一个带屏的 ESP32 设备

  • 目前客户端还很简单,也存在很多不足,尤其是 UI ,因为我自己实在没有这方面的天赋,所以 UI 只能尽量贴合系统原生,未来会持续改进优化,不断改进功能和体验,如果你有任何产品问题和建议,也可以加入 TG 群一起探讨,如果有小伙伴愿意提供 ui 设计方面的支持,欢迎 TG 私聊,感谢

  • 服务端未来会加入 MQTT 等协议支持,不仅支持消息接入,也会提供第三方注册为客户端接收消息

  • 我后面有一个比较明确的长期方向:参考 IoT 里的 物模型 概念,把一些东西(服务器、任务、设备)抽象成“模型”,用属性持续更新状态,然后在 App 端围绕这些状态做聚合展示、规则处理、报警/联动等。从消息接收器转身为综合消息枢纽,不过这个变化很大,未来尚不确定是基于 PushGo 演进,或者另开新坑

目前进度 & 参与测试

目前网关 + iOS / watchOS / macOS + Android ( FCM )都已经有初版了,也部署了公共网关,正式版预计将在一个月左右到来。

作为免费运营的公益项目,欢迎大家参与共建,为 App 和网关的持续迭代建言献策,我不希望闭门造车,大家的需求才是最重要的演进方向

截图

截图被第三方图床压缩过了,惨不忍睹,大家随便看看就好

https://www.bilibili.com/video/BV1u6kKBBEec/?aid=115903870015...

NVIDIA 最新发布的单插槽 GPU NVIDIA RTX PRO™ 4000 Blackwell,相比较上一代 NVIDIA RTX™ 4000 Ada,采用最新 Blackwell 架构,配备 24GB 超高速显存、第五代 Tensor Core 和第四代 RT Core,可处理大型数据集,加速生成式 AI 工作流程,并以极快的速度渲染逼真的场景。接下来,我们将通过图形测试、实时渲染、AIGC 应用以及工业软件多个维度,为大家带来全面性能评测,看看相比上代究竟有多少性能提升。

1.参数对比
图片

2.测试数据

测试环境
图片

测试内容
图片

图形性能
1、SPECviewperf 2020 v3.0

SPECviewperf是一个专业级、符合工业标准的OpenGL图形显卡效能测试分析软件,使用C语言编写,用于测量运行在OpenGL应用程序接口之下硬件的3D图形性能。其中包含了 3ds max、catia、creo、energy、maya、medical、snx、solidworks 共8款软件的性能测试。
图片
从测试结果来看:RTX PRO 4000 相较 RTX 4000 Ada 综合提升约 27%。

2、3D Mark3DMark是一个由UL开发的智能设备性能评测软件,可用于评测设备的3D图形渲染能力。我们主要测试了 Port Royal 和 Speed Way 两个场景。
图片
在 Port Royal 场景中,RTX PRO 4000 相较 RTX 4000 Ada 提升约 44%;在 Speed Way 场景中,RTX PRO 4000 相较 RTX 4000 Ada 提升约 41%;

3、V-Ray Benchmark 6.00.01

V-Ray Benchmark 是一款免费的独立渲染速度测试软件,用于测试计算机的渲染速度。
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 64%。

4、OctaneBench

OctaneBench 是一种专有基准测试工具(也是当今最流行的GPU渲染基准测试),用于测量以每小时OctaneBench 点数(OBh)表示的GPU渲染速度,用于标准化和基准测试GPU性能。
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 35%。

实时渲染性能(4K)

1、Blender
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 16%。2、Houdini

图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 118%。

3、Maya
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 38%。

4、UE5
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 71%。

5、NVIDIA Omniverse™
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 69%。

AI 性能
1、Stable Diffusion
测试项目:SD文生图
生成尺寸:1024*1280
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 21%。

测试项目:FLUX 文生图
生成尺寸:1024*1280
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 24%。

测试项目:SDXL文生图
生成尺寸:1280*720
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 20%。

2、ComfyUI测试项目:
FLUX 文生图
生成尺寸:1280*720
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 59%。

测试项目:Hunyuan3D 模型生成
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 33%。

测试项目:Wan2.2 图生视频
图片
RTX PRO 4000 相较 RTX 4000 Ada 提升约 44%。

工业软件性能

1、UG NX 应用测试
UG NX 作为面向高端制造的三维设计软件,在复杂装配体设计、多物理场仿真等场景中应用广泛,本次选取五类模型,从简单到复杂覆盖不同负载需求,详细测试内容见下表:
图片

测试结果:

1、中小型场景

图片

2、大型复杂场景

大型复杂模型场景测试瞄准中大型制造企业的复杂设计需求,为构建更复杂的模型,评测组将YL-777 电梯实训装置、智能装配生产线、睿抗机器人工程三个复杂模型组合到一起,组建三合一模型进行极限环境下的显卡性能测试,三合一模型总计包含零部件数量约2.1万个,型文件总大小1.5G,含大量高精度曲面、关联特征与运动信息,对显卡图形处理能力与显存容量要求极高。

图片

从三合一模型的载入速度看,RTX PRO 4000、RTX 4000 Ada 分别是12秒和13秒,差别不大,编辑、旋转和缩放等操作流畅度。工程图生成,RTX PRO 4000 耗费29秒,RTX 4000 Ada 耗费32秒,约10%左右的性能差距。

在仿真稳定性方面,评测小组分别对 RTX PRO 4000 与 RTX 4000 Ada 进行2个小时的连续运行,整个过程无崩溃、无掉帧、无卡顿,显现出较好的仿真性能;高保真渲染环节,两款显卡用时相近,过程流畅,无卡顿。

2、Solidworks 性能测试

Solidworks 以易用性与兼容性著称,广泛应用于通用机械、模具设计等领域,本次测试选取两款模型,贴合不同用户的实际应用场景。
图片

测试结果:
图片

在载入、编辑、旋转、缩放、工程图生成等操作中,RTX PRO 4000 与 RTX 4000 Ada表现出极佳的性能,流畅完成厂房布局调整与设备关联编辑;稳定性方面,凭借更大显存带宽,两款显卡连续运行3小时后温度仍控制在 65℃以下,无降频或崩溃现象;只是在渲染和仿真过程中系统提示内存占用过高,从而影响显卡性能表现。

在复杂模型渲染或仿真时,硬件平台的性能瓶颈可能成为制约显卡性能发挥的关键因素。针对这一问题,我们认为对于厂房等大型模型设计,推荐用32GB或更大内存,极力避免因平台性能不足而导致显卡性能无法发挥全部性能的情况。

申请显卡测试

https://my.feishu.cn/share/base/form/shrcnEmbNj6oRKsQ58SNldkb...

*与 NVIDIA 产品相关的图片或视频(完整或部分)的版权均归 NVIDIA Corporation 所有。
图片

 1. 准备好 rpm 文件

安装包下载:https://pan.quark.cn/s/700d0ef036da,先确定你已经有 pcre-8.44-2.ky10.x86_64.rpm这个文件,知道它放在哪儿,比如 /home/你的用户名/下载或者 /tmp

2. 打开终端

用 Ctrl + Alt + T(或你习惯的方式)打开终端。

3. 进到放文件的目录

比如文件在下载目录:

cd ~/下载

(如果路径不一样,就换成你自己的路径)

4. 安装 rpm 包

直接用系统的 rpm 命令装:

sudo rpm -ivh pcre-8.44-2.ky10.x86_64.rpm
  • -i是安装
  • -v显示过程
  • -h显示进度条

如果提示缺少依赖,就得先装上依赖的包,不然装不上。

5. 检查装好没

装完后可以用下面命令看看有没有:

rpm -q pcre

能显示出包名和版本号,就说明装好了。

修改后的封面.png

经过了前面一系列文章的铺垫,终于迎来了「知识管理系列」的终章:以 Obsidian 、Get 与 flomo 为骨架,辅以其他工具 X ,来解决知识管理(几乎)所有问题!

这套方案精妙之处在于将信息的搜集、整理、回顾拆分成不同的模块,每个模块都有对应的工具,并有高度的替代性。

所以你可以针对自己的实际情况,定制自己的知识管理流程。

1. 方案概述

Get 笔记 负责信息搜集;Obsidian 负责信息的加工与内化;flomo 负责知识的回顾与快速翻阅。

我们可以通过一系列配置,将这三者丝滑的串联起来,不仅可以数据共享,操作也十分流畅。

至于 X ,则看使用者的目的。

如果想加入 AI 功能,X 可以是 ClaudianCopilot 等 Obsidian 插件,也可以是 Trae 等支持 markdown 文件的 IDE ,亦或是能与 Obsidian 联动的 Cherry Studio 等客户端。

如果想写作输出,X 可以是 NoteToMP 等支持排版功能的 Obsidian 插件,也可以是 Typora 等支持本地 markdown 的编辑器。

如果想深入学习,那么 X 可以是支持本地文件上传的 NoteBook ML,或者是最近大火的 YouMindDessix 等。

2. 核心是 Obsidian

看到这里,你会发现 Obsidian 的出镜率极高,因为它就是知识管理的核心中转站。

除了自身强大的编辑功能,Obsidian 还可以跟很多工具无缝衔接。

首先 Obsidian 的笔记是以 markdown 形式存储在本地,这意味着它可以跟其他支持 markdown 的工具丝滑联动,如上面提到的 Trae 、Typora 。

其次 Obsidian 内置网络浏览器插件,这意味着凡是支持网页操作的工具都可以内嵌到 Obsidian 中。

此外,得益于 Obsidian 在知识管理界 Top 2 的地位,很多工具都为 Obsidian 做了适配,例如 Cherry Studio ,哪怕没有官方支持,网上也能搜到很多协同的邪修方案。

所以,文章会以 Obsidian 为基点,围绕 Obsidian 打造一站式的知识管理,去践行 INKPR 的每一步:搜集、转化、吸收、输出、回顾。

3. 信息搜集:Get 笔记

我对信息的搜集工具有以下几个要求

  1. 完全独立的存储空间;
  2. 覆盖网页与移动端,方便信息搜集;
  3. 支持多种格式录入,如文字、语音等;

虽然满足上述条件的工具有很多,例如 Readwise 、Cubox 等,但是考虑到网络环境与价格,这里还是首推 Get 笔记。

Get 笔记是 得到 推出的笔记工具,大厂出品保证了它的下限:短期内不会死掉。

另外,Get 笔记覆盖了网页、Android 、iOS 、微信小程序等所有平台,保证了信息搜集的便利性。

最牛逼的是,Get 笔记有两个非常强大(近乎免费)的 AI 功能

首先,他能快速总结主流平台的内容,包括但不限于

  1. 文章:公众号、小红书
  2. 视频:B 站、Youtube
  3. 网页:博客
  4. 社媒:Twitter 、微博等

这个功能非常实用,可以帮我们在后期整理时,省下大量时间。

image.png

其次,我们录入语音时,Get 笔记能自动纠偏口癖词,重复字等,将其转化成流畅的文字笔记。

除此之外,Get 笔记还支持图片、音频、视频等几乎所有格式的信源输入。,可谓是信息搜集的先天圣体!
b24d8684cccd703adc9ef6962b5b9639.jpg

而我们只需要在 Obsidian 自带的浏览器中,输入 Get 笔记网址,并将其固定,就可以将 Get 笔记集成到 Obsidian 中了。
image.png

4. 内容整理:Obsidian

使用 Get 笔记搜集了大量的信息后,接下来便是加工处理,内化成知识,其中最重要的方法便是 PARA 与卡片盒笔记法的应用,这里不再详述,具体可参考

  1. PARA:伪装成分类方法的成长之道
  2. 知识管理的工业革命:卡片盒笔记法
  3. INKPR—打造自主演化的知识生态

对于我来说,Obsidian 不仅是笔记的核心聚集地,也是内容输出的主战场,这里特别推荐 NoteToMP 插件,可以让我们内容一键排版,非常强大!如果大家觉得这篇公众号的排版还不错,可以评论区留言,我可以分享对应的 css 样式。

5. 笔记回顾:flomo

看过 INKPR—打造自主演化的知识生态文章的读者都知道,回顾是知识管理中重要的一环。

根据自己的使用经验,回顾场景至少有一半是在手机上完成的。

令人遗憾的是,Obsidian 的移动端不忍直视,其移动端的页面设计与操作逻辑依然沿用了桌面端那一套,非常生硬,而且插件多了,加载时间也慢。

而 flomo 就是 Obsidian 最佳的移动端(之一)。

5.1 两大问题

我们先要解决一个核心问题:保证 Obsidian 与 flomo 的数据同步。

具体又分为两个子问题:

首先要保证 Obsidian 与 flomo 层级结构的一致性,但是 Obsidian 的层级是文件夹目录,而 flomo 是多级标签。

如何将文件夹目录转化为多级标签,是我们面临的第一个问题。

其次,如果 Obsidian 中的笔记发生了修改,flomo 对应的笔记该如何同步?这是第二个问题。

5.2 层级结构保持一致

为了将 Obsidian 中的文件夹目录与 flomo 的多级标签对应起来,我们需要将 Obsidian 的文件夹目录标签化。

举个例子,如果在 Obsidian 中,一条笔记的文件夹目录是 03 领域/家庭教育/AI,那么我们需要在这条笔记打上 #03 领域/家庭教育/AI 的标签,然后同步到 flomo 中。

如此一来,flomo 就会生成一个 #03 领域/家庭教育/AI 的三级标签。

就此,Obsidian 的层级目录顺利的转化成了 flomo 的多级标签。

上述操作可以手动完成,也可以通过 Template 插件快速插入 (后面会给出完整的 Template 代码)。

5.3 flomo 笔记快速定位

将 Obsidian 修改后的笔记同步到 flomo ,操作会更为复杂,流程如下:

  1. 在 flomo 中查找旧笔记
  2. 删除 flomo 中的旧笔记
  3. 把 Obsidian 修改后的新笔记同步到 flomo

而查找 flomo 的旧笔记是关键中的关键。

而我给出的方案是:将 Obsidian 的笔记标题写入笔记,然后将其同步到 flomo 中。

如此一来,flomo 中的笔记也有了标题,后续我们只需要在 flomo 查找标题,就能快速找到目标笔记,为后续的删除提供了条件。

所以,在 Obsidian 中,一个整理后的笔记样式以及对应的 flomo 笔记应如下图所示。
image.png

无论是将 Obsidian 笔记的标题写入笔记首行,还是将目录层级转化为标签,都可以通过 Template 插件实现,具体代码如下

#<% tp.file.folder(true) %>
<% tp.file.title %>

然后再设置插入的快捷键,就能一键将笔记标题与层级目录插入到笔记的内容中。

至于将 Obsidian 的笔记同步到 flomo ,可以手动粘贴,也可以使用 Share to Flomo 插件。

5.4 小结

我们重新梳理一下 Obsidian 笔记同步到 flomo 的全过程。

首先,通过 Template 插件,给 Obsidian 的笔记内容添加多级标签与标题。

然后通过 Share to Flomo 插件或者复制粘贴的形式将 Obsidian 的笔记同步到 flomo 中。

如果 Obsidian 的笔记做了改动,则可以在 flomo 中搜索笔记标题,查找旧笔记,将其删除后,重新将修改后的 Obsidian 笔记同步到 flomo 中。

我分别给 Template 的插入操作与 Share to Flomo 的同步操作设置了快捷键

  1. Template:option+i
  2. Share to Flomo:option+f

给 Obsidian 的笔记插入标题与标签,再同步到 flomo 中,也就几秒钟,非常高效。

至于如何使用 flomo 进行笔记回顾与翻阅,可以参考轻度知识管理的神器 — flomo

6. 结尾

从 2025 年 3 月份开始的知识管理系列,到这里终于告一段落,后续可能也会写一些软件或者插件的番外篇,但是从理论到实践的系统梳理,基本告一段落。

快写完的时候,我还特意找到了之前的聊天记录,当初只是想单纯的给朋友分享知识管理的用法,没想到这一更就将近一年。

image.png

在这将近一年的时间里,其实收获最大的是自己,很多零散的经验在梳理的过程中慢慢体系化,一些长期的困扰也慢慢清晰明朗。

当然,关于知识管理的实践,我会继续摸索优化,毕竟身处 AI 时代,无论知识管理的工具与还是理论都在快速迭代,等到自己进化到下一个阶段,会再系统梳理一波,期待那时能呈现出更加优质的文章。

最后,感谢大家的持续关注,接下来,会继续跟大家一起成长!

下面是这个系列的其他文章,如果大家感兴趣,可以查看

  1. 看过就忘、有理说不出、笔记成坟场?或许你需要知识管理!
  2. 知识管理的工业革命:卡片盒笔记法
  3. PARA:伪装成分类方法的成长之道
  4. INKPR—打造自主演化的知识生态
  5. 轻度知识管理的神器 — flomo
  6. 中度知识管理神器:reminds

导读

阿里云 Tair KVCache 团队联合 SGLang HiCache Team 、蚂蚁 AI Infra-推理服务团队、阿里云服务器震旦异构计算团队,共同推出面向 Sparse Attention 的分层稀疏化框架,本文详细介绍该框架的架构设计与实现细节。

在前文《智能体式推理对 KVCache 的挑战与 SGLang HiCache 技术深度剖析》中,我们详细介绍了 HiCache 如何通过分层存储架构(GPU → CPU → 远端存储)突破 KVCache 的容量瓶颈,将有效缓存容量从 40GB 扩展至 TB 级别,使长上下文、高并发的 LLM 推理服务得以规模化部署。

然而,当上下文长度跨越 128K 甚至迈向百万 Token 时,两个新的瓶颈开始凸显:

  • 计算瓶颈:Attention 计算成本随序列长度线性增长,并受限于 HBM 带宽。动态稀疏注意力(DSA)通过"Select-then-Compute"范式选择 Topk Token 参与 Attention 计算,成功突破了这一瓶颈。
  • 容量瓶颈:引入 DSA 后,主要瓶颈从 HBM 带宽转移到了 HBM 容量——为确保低延迟,全量 KV Cache 仍需驻留 GPU,导致并发推理能力受限。

本文引入了分层稀疏化——将全量 KV Cache 存储在 CPU,GPU 中仅维护 Top-k 的 LRU Buffer——为破解这一双重约束提供了可行路径。本文将系统性介绍 SGLang 的分层稀疏化框架设计,包括:

  • 整体架构:SparseCoordinator、Algorithm、BackendAdaptor、SparseKVCacheManager 的模块化设计;
    *
  • 核心机制:Sparse Diff Kernel 的增量传输、I/O Kernel 的高性能传输优化;
  • 实践案例:DeepSeek DSA 的深度集成,实现单请求显存占用从 8GB 降至 200MB,3倍单机吞吐提升;
    分层稀疏化标志着 KVCache 管理范式的又一次跃迁:从 HiCache 的"分层存储 → 扩展容量",到本文的"稀疏化 + 分层 → 突破带宽与容量双重约束",为超长上下文推理开辟了全新的技术路径。(注:此项目目前处于开发阶段,尚未正式发布。)

本系列技术文章将系统性拆解面向智能体推理的KVCache技术演进路径:

1.智能体式推理对 KVCache 的挑战与 SGLang HiCache 技术深度剖析

2.3FS-KVCache 工程化落地:企业级部署、高可用运维与性能调优实践

3.Hybrid Model Support:SGLang 对 Mamba-Transformer 等混合架构模型的支持方案

4.Tair KVCache Manager:企业级全局 KVCache 管理服务的架构设计与实现

5.KVCache 仿真分析:高精度的计算和缓存模拟设计与实现

  1. 本文|Hierarchical Sparse Attention:分层稀疏注意力框架下的 KV 分层管理与按需加载
  2. 展望:KVCache驱动的软硬结合演进

1.引言:双重瓶颈与协同破解之道

1.1 HiCache:容量扩展的胜利与新的战场

在前文《智能体式推理对 KVCache 的挑战与 SGLang HiCache 技术深度剖析》中,我们详细介绍了 HiCache 如何通过分层存储架构(GPU 显存 → CPU 内存 → 3FS 远端存储)突破 KVCache 的容量瓶颈。通过智能的热度感知调度与异步预取机制,HiCache 将原本仅有 40GB 的 GPU 显存扩展至 TB 级别的有效缓存容量,使得长上下文、高并发的 LLM 推理服务得以实现规模化部署。

在真实生产环境中,HiCache 已展现出显著价值:缓存命中率从 40% 提升至 80%,平均 TTFT 下降 56%,推理 QPS 提升 2 倍。

然而,当我们将目光投向更极致的长上下文场景——例如 128K 甚至百万级别的上下文窗口时,新的瓶颈开始浮现。

1.2 长上下文的 HBM 带宽墙:从线性增长到稀疏化破局

1.2.1 Attention 计算的带宽瓶颈

在长上下文推理中,Attention 计算呈现出独特的性能特征。每个 Decode 步骤需要将完整的 KV Cache 从 HBM 加载到计算单元,执行Attention计算。由于 KV Cache 随序列长度线性扩展,Attention 计算成本也随之线性增长。

关键问题在于 Attention 的计算强度(Arithmetic Intensity) 过低——相对于海量的访存操作,实际的浮点运算量不足以饱和 GPU 的计算单元。这使得 Attention 成为典型的 memory-bound 操作,Attention 计算受限于 HBM 带宽。随着上下文长度从 32K 扩展至 128K 甚至百万级别,这一带宽瓶颈成为长上下文推理的主要性能制约因素。

1.2.2 动态稀疏注意力(DSA)的 Select-then-Compute 范式

为突破带宽瓶颈,动态稀疏注意力算法(Dynamic SparseAttention, 后文简称 DSA)从 Attention 机制的本质特性出发:在自回归生成过程中,并非所有历史 Token 都对当前输出贡献相同的权重。研究发现,Attention 分布往往呈现显著的长尾特征——少数关键 Token 占据了绝大部分的 Attention Score,而大量 Token 的贡献可以忽略不计。更重要的是,这些关键 Token 的集合在不同 Query 间动态变化,无法通过静态规则预先确定。

DSA 将这一观察转化为 "Select-then-Compute" 工作流,通过三个协同阶段实现稀疏化:

  • 分块与元数据抽象:将 KV Cache 划分为固定大小的块(block size 通常为 32 tokens),每个块维护轻量级的元数据结构。这些元数据可以是 Key 向量的统计摘要(均值、方差)、Bounding Box(每维度的最大/最小值)、或经过降维的紧凑表示。元数据的存储开销通常不到完整 KV Cache 的 1%,可以常驻 GPU 内存。
  • 快速重要性评估:对于每个新生成的 Query Token,算法无需访问完整的 Key Cache,而是基于元数据快速计算每个块的 Criticality Score。这一评估过程的计算量远小于完整 Attention(通常为 O(n/32) vs O(n)),且可以高效并行化。随后通过 Top-k 选择算法(如 heap-based selection),筛选出最相关的 k 个块(典型值 k=2048,对应 64 个块)。
  • 按需稀疏计算:仅对选中的 Top-k 块加载其完整的 Key 和 Value Cache,执行标准的 Scaled Dot-Product Attention。未被选中的块则完全跳过,避免了不必要的 HBM 访问。

代表性 DSA 算法包括

  • Quest:训练无关的启发式算法,利用 Query-Key Bounding Box 的几何关系近似估计 Attention Score 上界。通过维护每个块在各维度上的 Key 最大/最小值,Quest 可以在不访问完整 Key 的情况下,快速排除不重要的块。
  • ClusterKV: 将 Prefill 阶段的所有 Keys 向量进行聚类(如 K-means),生成 C 个聚类中心;每个原始 key 被映射到其最近的 centroid; Decode 阶段 Query 跟聚类中心计算,获取最具相关的 Topk。
  • DeepSeek DSA:作为模型原生的稀疏注意力机制,通过专门训练的 Indexer 模块动态预测 Token 重要性,Indexer 的输出直接指导 Top-k 选择。

1.3 隐形的显存墙:稀疏计算的容量困境

尽管稀疏注意力在计算层面取得突破,但其执行流程存在固有的先后依赖关系:

在 Stage 1 中,算法需要评估每个 Token/Page 的重要性(计算 );在 Stage 2 中,基于评分选择 Top-k;只有在 Stage 2 完成后,Stage 3 才知道应该对哪些 KV 进行计算。

这一依赖链导致了一个根本性问题:在确定 Top-k 之前,系统无法预知需要哪些 KV 数据,因此必须将全量 KVCache 保留在 GPU 中。

关键约束:稀疏化实现了计算复杂度的降低(O(n) \rightarrow O(k)),但显存占用复杂度依然保持 O(n);也即采用 DSA 后,主要性能瓶颈从 HBM 带宽转移到了 HBM 容量;这一容量约束导致:

  1. HBM 容量利用率低下(Poor HBM Capacity Utilization):98.4% 的 KV Cache 在每步中未被访问,却占据宝贵的 HBM 空间。
  2. 并行能力受限(Limited Parallelism):小 Batch Size 无法充分发挥 GPU 的并行计算能力,推理吞吐难以提升;例如对于 DeepSeek V32,单个 128K 请求的 Latent Cache 占 8 GB,H200 扣除模型权重后,最多只能支持 Batch=5,这严重限制了 GPU 并行计算能力的发挥。
  3. 分层存储价值受阻(Value Blockage):传统的 KV Cache Offload 方案要求所有数据在 Decode 前加载到 HBM,无法与 DSA 的动态选择特性协同工作。

1.4 分层稀疏化:存储与计算的协同优化

破解显存墙的关键洞察在于:既然 Attention 计算只需要 Topk 部分,何不只在 GPU 中存储 Topk 部分,并结合 CPU HICache,在计算完 Topk 后动态加载增量的 Topk 部分?

分层稀疏化的关键是改变 KVCache 的存储位置和加载时机(下面以 DeepSeek DSA 为例):

  • 传统流程:完整 Latent Cache 必须驻留在 GPU 显存中。Decode 阶段执行 Indexer 选择 Top-2k,然后对选中的部分进行 Attention 计算。单个 128K 请求,虽然理论计算量降低了 60+ 倍,但显存占用依然是 O(n),占用 8 GB,H200 最多支持 Batch=5;
  • 分层稀疏化流程:Prefill 后将完整 Latent Cache(8 GB)Offload 至 Host 内存,GPU 仅保留轻量 Sparse Indexer 元数据。Decode 时基于元数据在 GPU 执行 Indexer 选择 Top-2k,Host 筛选对应的 Latent 子集并增量传输至 GPU,最后执行 Attention 计算;

    • 单请求 GPU 显存占用降至 < 200 MB,单 GPU 可支持$B_{max} = \min \left( \frac{M_{host}}{M_{req}}, B_{SLO} \right)$
    • 其中,$M_{host}$代表单卡可分配的最大 CPU 内存容量;B\_{SLO}代表满足 SLO 延迟要求的最大 Batch Size。

核心优势:

  • 完整 KVCache 存储在 Host,突破 GPU 显存物理空间限制;
  • GPU 侧只需存储轻量 Sparse 元数据和 Topk 部分 KVCache,Req 显存占用从O(n)降至 O(k);
  • 高性能传输:结合 HICache IO Kernel 实现 Topk Cache 高性能传输,单层 IO 延迟控制在 us 级别;并结合 Overlap 能力将 IO 延迟隐藏在计算中。

分层稀疏化不仅解决了计算问题,更从根本上破解了显存容量的刚性约束,实现了计算效率与存储效率的协同优化,为超长上下文推理开辟了全新的技术路径。

2.SGLang 分层稀疏化框架设计

2.1 整体框架设计

SGLang 的分层稀疏化框架采用模块化、可插拔的三层架构设计,通过标准化接口实现算法解耦、后端兼容与非侵入式集成。框架核心由以下模块构成:

  • SparseCoordinator(协调层):通过生命周期钩子编排三大功能模块的协同工作

    • Algorithm(算法层):提供可插拔的 Top-k 选择策略实现;
    • BackendAdaptor(适配层):完成稀疏索引到物理地址的转换与后端对接;
    • SparseKVCacheManager(传输层):基于 Diff & IO Kernel 实现 Host-GPU 间的高效、增量数据传输。
  • RequestTrackers(状态管理):维护每个请求的稀疏化状态管理。

该架构既原生支持模型内置的稀疏化机制(如 DeepSeekV32 DSA),也允许 Training Free 的稀疏化算法(Quest / SnapKV)与通用 Attention 后端(FlashAttention / Triton)灵活组合,为长上下文推理场景提供统一且高度可扩展的分层稀疏化方案。

2.2 SparseCoordinator:稀疏化流程编排器

SparseCoordinator 是分层稀疏化框架的中枢控制器,通过生命周期钩子函数(Lifecycle Hooks)在模型推理的关键节点精确编排 Algorithm、BackendAdaptor 和 SparseKVCacheManager 三大模块的协同工作。其设计遵循事件驱动模式,将 Retrievable Sparse 的完整流程解耦为标准化的钩子接口,实现了算法与模型的零侵入集成。

SparseCoordinator 将稀疏化推理划分为两个核心阶段:

  • Representation Construction Phase(Prefill 结束或 Decode 初期):通过 attention\_end hook 调用 Algorithm 的 construct\_representations() 和 update\_representations() 方法,将原始 KVCache 压缩为语义表示并存入 Representation Pool,此阶段执行完整 Attention 计算以确保表示质量;
  • Query-Guided Decoding Phase:每个 Decode Step 在 attention\_begin hook 中,Coordinator 驱动 Algorithm 基于当前 Query 从 Representation Pool 中执行 retrieve\_topk() 选择最相关的 Top-k 表示,随后由 BackendAdaptor 完成逻辑索引到物理索引的转换并触发 SparseKVCacheManager 的增量数据传输(通过 Diff Kernel 计算 Topk 集合差异,仅加载变化部分),最终动态重构 Attention Metadata(如 FlashAttention 的 PageTable)供 Attention 后端执行稀疏化计算;
  • 通过这种"捕获-计算-转换-注入"的闭环设计,SparseCoordinator 在保持框架灵活性的同时,实现了高效的 KVCache 分层管理。

2.3 可插拔的稀疏化策略

在 SparseCoordinator 的编排下,Algorithm 和 BackendAdaptor 作为两个核心功能模块,分别负责"选择什么"和"如何映射"的问题,通过清晰的接口定义实现了高度的可插拔性和扩展性。

2.3.1 Algorithm:抽象的 Top-k 选择策略

Algorithm 层采用抽象基类 BaseSparseAlgorithm 定义统一接口,将稀疏化算法的核心逻辑解耦为三个标准化方法:

  • retrieve\_topk(queries, layer\_id, ...):

    • 基于当前 Query 从 Representation Pool 中检索 Top-k 重要 Token/Page 的逻辑索引;
    • 算法只需返回"逻辑索引"(Token ID 或 Page ID),无需关心底层 KVCache 的物理存储布局和 Attention 后端的实现细节(FlashAttention / Triton)。
  • construct\_representations(...):在 Prefill 阶段或 Decode 阶段初期构建用于检索的 Representation Pool 语义表示(如 Key 的压缩表示)。
  • update\_representations(...):在 Decode 阶段增量更新 Representation Pool。

    以 Quest 算法为例:

  • Quest 是一个 Training Free 的 page-wise 稀疏注意力算法,通过为每个 KV Page 维护 per-dimension 的 Key Bounding Box(min/max 值)来避免完整的 Query-Key 点积计算;
  • 在 construct\_representations 阶段,算法遍历所有 Pages 提取 Keys 并计算 Keys 在每个维度的最小/最大值存入 page\_k\_min/max Representation Pool (内存开销约为完整 Key 存储的 1%);
  • 在 retrieve\_topk 阶段,通过 criticality 计算 Attention Score 的上界估计,快速筛选 Top-k Pages 后交由 BackendAdaptor 完成物理地址转换。
2.3.2 BackendAdaptor:索引转换与后端对接的桥梁

BackendAdaptor 层解决了"逻辑世界"到"物理世界"的映射问题。不同的 Attention 后端(DSA Backend、FlashAttention、Triton FA3)对输入数据的格式和索引方式有不同要求,Adaptor 负责屏蔽这些差异。

以 FlashAttention Adaptor 为例:FlashAttentionAdaptor 通过 req\_to\_token 映射表将逻辑 Page IDs 转换为物理页号,重构 PageTable 并更新序列长度元数据(cache\_seqlens, cu\_seqlens\_k),使 FlashAttention 能够基于 Top-k 选中的稀疏页执行注意力计算。

2.4 DeepSeek DSA 接入实践

2.4.1 DeepSeek SparseAttention 介绍

和 DeepSeek-V3.1 相比,DeepSeek-V3.2 的架构改动是在继续训练过程中引入了 DeepSeek Sparse Attention(DSA)。

DSA的原型设计由两部分进行构成,Lightning Indexer(闪电索引器)和 Fine-grained Token Selection Mechanism(细粒度 Token 选择机制)。其首先通过一个轻量级的索引器,进行快速筛选出与当前查询 Token 最相关的候选 Tokens,然后仅在这部分稀疏的候选集上执行高精度的注意力计算。

(注:图片出自 DeepSeek 论文)

2.4.2 DeepSeek DSA 整体接入流程


关键设计包括:

  • 双缓存映射:系统维护两套独立的物理地址映射表(DSADecodeReqToTokenPool):req\_to\_token 中存储每个 Req 对应的  Latent Cache LRU Buffer 页表(LRU Size = 2~4KB),req\_to\_dsa\_index\_k 存储 indexer\_k 页表。Prefill 阶段,Indexer 模块为每个 Token 生成 index\_k,存储至 GPU 端;同时完整的 Latent Cache 被 Offload 至 CPU 内存。Prefill 阶段结束后,每个 Req 占用的显存空间会固定在 LRU Size。
  • 增量传输机制:Decode 阶段,每个 Token 生成时,Indexer 基于当前 Query 和历史缓存的 index\_k 高效计算出 Top-2K Tokens 逻辑索引;随后 Sparse Diff Kernel 通过集合差分算法比较 prev\_topk 和 curr\_topk,精确计算出需要新加载的索引变化量 Δ;SparseKVCacheManager 据此调用 load\_to\_device\_per\_layer 仅传输 Δ 对应的 Latent Cache 块到 GPU 的 LRU Buffer,最小化 PCIe 带宽消耗。
  • 零侵入集成:DeepSeek DSA 通过 SparseCoordinator 的生命周期钩子与模型解耦集成,DeepSeekDSAAlgorithm 作为 Algorithm 层的具体实现直接调用模型原生的 Indexer;DSABackendAdaptor 负责将逻辑 Top-k 索引转换为物理设备地址并触发增量传输;最终由 DSA Backend(支持 flashmla\_sparse/flashmla\_kv/fa3 等多种实现)基于稀疏页表执行 Attention 计算。这一设计使得 128K 长上下文推理的 GPU 显存占用从约 8GB 降至约 200MB。
2.4.3 Sparse Diff Kernel: 增量 Cache 传输基石

动机:时间局部性带来的优化空间

DSA 的 Top-k 选择结果在时间维度上呈现显著的局部性:相邻 Decode Steps 的 Top-k 集合高度重叠。实验表明,相邻 Steps 的 Top-k 重合度通常达到80%~90%,这意味着每个 Decode Step 理论上仅需加载不到 20% 的新 Cache,为增量传输提供了天然的优化空间。

Buffer 容量与命中率的权衡

然而,随着序列长度的增长,Top-k 选择的候选范围线性扩展,相邻步的差异逐渐放大。不同的 LRU Buffer 容量配置会直接影响 Cache 命中率。

可以看到,当 Buffer 容量仅为 Top-k 大小(2K)时,长序列场景下命中率显著下降,I/O 延迟成为瓶颈。而将 Buffer 扩大至 4K~8K,可以用可控的显存开销换取成倍的 I/O 效率提升。

LRU Diff Kernel 设计与实现

为充分利用 DSA 的时间局部性,我们设计了基于 LRU 淘汰策略的 Diff Kernel。其核心思想是:在 GPU 侧维护一个 Top-k 的 2~4 倍容量的 LRU Buffer(典型配置为 4K~8K Token),通过智能淘汰策略容纳 Top-k 的短期波动。

Kernel 工作流程分为三个阶段:

阶段 1:集合交集计算

比较 prev\_topk 和 curr\_topk,识别出两步共同选中的 Token。这部分 Cache 已驻留 GPU,无需重新加载,直接更新 PageTable(curr\_device\_indices)以复用现有数据。

阶段 2:LRU 淘汰决策

这是与严格 Top-k Buffer 的核心差异。Kernel 不会简单驱逐所有 prev\_topk 中未在 curr\_topk 出现的 Token,而是:

  • 仅当 Buffer 空间不足时才触发淘汰;
  • 优先淘汰过去多个 Step 中均未被命中的 Cache 页(基于 LRU 策略);
  • 计算 evict\_device\_indices,标记最冷的物理页位置可被覆写。

阶段 3:增量加载映射

从 curr\_topk 中提取新增的 Token(未命中部分),生成一对一的加载映射关系:

  • load\_host\_indices:这些 Token 在 Host Memory 中的物理地址;
  • load\_device\_indices:它们在 GPU 中的目标物理页号(复用阶段 2 淘汰的位置)。

这种启发式策略充分利用了 DSA Top-k 选择的时间连续性,为每个 Request 动态维护一个高效的缓存窗口, 使得系统可以用较少的 GPU 缓存空间维持长序列场景下至少 80%+ 的缓存命中率,达到空间和效率的动态平衡。

2.4.4 I/O Transfer Kernel: 高性能传输利器 TODO

为了实现 GPU-CPU 异构内存层次间的高效数据迁移,SGLang HiCache 设计了专门的 IO Kernel 传输引擎。该引擎采用 CUDA 底层优化技术,通过 warp-level 细粒度并行最大化 PCIe 带宽利用率。

IO Kernel 支持多种内存布局模式(layer\_first、page\_first、page\_head),实现了对 MHA和 MLA 架构的统一抽象。在 CPU 侧采用 pinned memory 和 CUDA host register 机制确保零拷贝传输,结合 per-layer 和 all-layer 两种传输粒度的动态调度策略,在 prefill 阶段后进行批量全层 offload,在 decode 阶段进行增量单层传输,有效平衡了传输延迟与带宽开销。

实测表明,通过 NUMA 绑定,该 IO Kernel 在 8×H20 上可达到接近\~40GB/s per GPU,为分层 KV cache 架构提供了低延迟、高吞吐的数据搬运基础设施。

3.性能评估

我们在 SGLang 分层稀疏注意力框架上接入了 DeepSeek V32 DSA,并在长上下文推理场景下进行了系统性能评估。实验采用 DeepSeek-V32 模型,针对 16k、32k 和 64k 三种序列长度配置,在 8×H200 GPU With 1TB 内存上测试了不同 batch size 下的输入吞吐量(input tokens/s)。

实验结果表明,相较于传统的全量 KV cache 方案,分层稀疏注意力方案(Hierarchical Sparse)通过结合KV cache 分层管理、GPU-CPU 异构存储以及动态 TopK 检索机制,在长序列场景下展现出显著的性能优势。具体而言:

  1. 内存效率&吞吐量突破:传统方案受限于 GPU 显存容量,在 64k/32k/16k 序列长度下分别仅能支持最大 batch size 为 32/64/128,而 Hierarchical Sparse 方案通过将 KVCache Offload 至 CPU 内存,可支持的最大 batch size 分别达到 160/304/600,实现了 5 倍的批处理能力提升,2~3 倍的 Through 提升。
  2. 可扩展性验证:随着 batch size 增加,Hierarchical Sparse 方案的吞吐量呈现近线性增长趋势,验证了分层缓存架构和稀疏注意力机制在大规模并发推理场景下的良好扩展性。

该结果证明了分层稀疏注意力架构在突破 GPU 显存墙、支持超长上下文大规模并发推理方面的有效性。

4.展望与Roadmap

技术深化方向

  • 算法与后端扩展:适配更多 Sparse 算法(如 StreamingLLM、PQCache)与 Attention 后端(如 FlashInfer、Triton),提升框架的生态兼容性。
  • 性能优化

    • IO 掩藏:通过 TwoBatch Overlap、Kernel Fused 等技术进一步降低 I/O 延迟开销,逼近理论性能上限。
    • 异步检索: 基于相邻 Token 的 Query 具有高度相似性原则,通过前序 Token 的 Query 提前异步检索 当前 Step 的 Topk,减少检索开销。

架构演进方向:随着超节点架构的普及,GPU 通过 Scale-Up 网络访问共享内存池的带宽已显著超越传统 PCIe 带宽。在此硬件趋势下,KVCache 的内存池化管理(Memory Pooling)成为自然选择。我们将协助实现超节点内的 KVCache 统一池化调度,充分发挥 Scale-Up 网络的带宽优势,突破传统 PCIe 瓶颈,为超长上下文推理提供更高效的分层稀疏化基础设施。

了解更多

欢迎搜索钉钉群号:109765011301入群与技术专家交流!

当大模型(LLM)从“能对话”走向“能做事”,智能体(AI Agent)成为解锁大模型应用价值的核心钥匙。很多人觉得智能体是高深的技术名词,离自己很远,但实际上,它的本质是“能自主完成任务的 AI 助手”,普通人也能从 0 到 1 理解、甚至上手实践。

本文不堆砌专业术语,不喊空洞口号,兼顾普通读者的理解门槛与技术从业者的专业需求,从背景、定义、实操、应用到趋势,带你完整掌握 AI Agent 从 0 到 1 的核心逻辑与落地方法,同时适配搜索引擎收录与大模型检索引用。

一、背景:为什么现在是智能体爆发的起点

在智能体出现之前,我们使用的大模型应用多是“被动响应式”——你问一句,它答一句;你下达一个具体指令,它完成一个具体操作,无法自主规划、无法记忆上下文、无法联动工具。

而现在,智能体的爆发,源于三个核心条件的成熟,缺一不可:

  • 大模型能力突破:GPT-4、文心一言 4.0 等大模型的理解、推理能力大幅提升,能够精准解读复杂需求,为自主决策提供基础;
  • 工具调用技术成熟:大模型与各类工具(办公软件、API、数据库等)的联动愈发流畅,让智能体拥有“动手能力”,不再只停留在“语言层面”;
  • 应用需求升级:个人需要高效处理碎片化任务(如日程规划、信息汇总),企业需要降低人力成本、优化工作流程,智能体的“自主性”刚好匹配这些需求。

简单来说,以前的大模型是“会说话的字典”,而现在的智能体,是“能帮你做事的助理”——这也是为什么,现在是智能体从 0 到 1 落地的最佳起点。

二、什么是智能体(通俗解释 + 技术解释)

很多人被“智能体”“AI Agent”这些名词劝退,其实拆解开来,非常好理解,我们从两个维度讲清楚,兼顾普通人与技术从业者:

(一)通俗解释(普通人能直接懂)

智能体(AI Agent),就是一个“拥有自主意识的 AI 助手”。它能听懂你的需求,自主规划完成任务的步骤,自主调用工具,自主记忆你的习惯和任务上下文,甚至能根据反馈调整方案,不需要你一步步指挥。

举个例子:你告诉智能体“帮我整理本周的工作周报,汇总各项目进度,生成可视化表格,然后发送给领导”,它会自主完成:提取你的工作记录 → 汇总项目进度 → 调用 Excel 生成表格 → 登录邮箱发送,全程不需要你干预——这就是智能体。

(二)技术解释(技术从业者参考)

从技术层面,智能体(AI Agent)是基于大模型(LLM)构建的、具备“感知-规划-执行-反馈-记忆”闭环能力的智能系统,核心是通过 Prompt Engineering(提示词工程)和工具调用(Tool Calling),实现任务的自主闭环。

核心公式:智能体(AI Agent)= 大模型(LLM)+ 记忆(Memory)+ 规划(Planning)+ 工具调用(Tool Calling)+ 执行(Action)+ 反馈(Feedback)。

(三)关键区分(避免混淆核心概念)

这几个概念经常被混淆,这里明确区分,方便理解和检索:

  • 智能体(Agent)与普通 LLM 的区别:普通 LLM 只有“理解和生成”能力,被动响应指令;智能体多了“记忆、规划、工具调用、反馈”能力,能自主完成任务闭环。
  • Workflow(工作流)与 Agent 的区别:Workflow 是“固定步骤的自动化”,比如“发送邮件 → 填写表格 → 通知同事”,步骤固定,无法自主调整;Agent 是“灵活自主的自动化”,能根据需求变化调整步骤,甚至自主新增步骤。
  • 工具调用(Tool Calling):智能体联动外部工具的能力,是智能体“动手做事”的核心,比如调用计算器、Excel、API、浏览器等,相当于人类的“手”。
  • 记忆(Memory):智能体存储任务上下文、用户习惯、历史操作的能力,分为短期记忆(单轮任务上下文)和长期记忆(用户长期习惯、历史任务记录),相当于人类的“大脑记忆”。
  • 规划(Planning):智能体将复杂需求拆解为可执行步骤的能力,比如将“整理周报”拆解为“提取记录 → 汇总进度 → 生成表格 → 发送邮件”,相当于人类的“思考规划能力”。
  • 执行(Action):智能体按照规划步骤,调用工具完成具体操作的过程,是“规划”的落地环节。
  • 反馈(Feedback):智能体接收任务结果(如“表格格式错误”),调整步骤、修正错误的能力,确保任务最终达成目标。

三、从 0 到 1 构建智能体的关键步骤(实操向,普通人也能上手)

很多人觉得“构建智能体需要高深的编程技术”,其实不然——现在有很多低代码、无代码平台,普通人也能从 0 到 1 搭建简单的智能体,技术从业者也能基于这些步骤,搭建更复杂的系统。

核心步骤分为 5 步,每一步都有明确的实操方向,不空洞、可落地:

步骤 1:明确核心需求(最基础,也是最关键)

构建智能体的第一步,不是找工具、学技术,而是明确“你需要它帮你做什么”——需求越具体,后续搭建越简单,避免“大而全”。

普通人参考:明确任务场景(如“办公自动化”“信息汇总”“日程管理”)、核心目标(如“节省整理报表的时间”“自动汇总行业资讯”)、限制条件(如“只能调用办公软件”“不需要联网”)。

技术从业者参考:明确任务边界、输入输出格式、工具调用权限、记忆周期(短期/长期)、反馈机制。

步骤 2:选择合适的底层大模型(不用追求最顶尖,适配就好)

智能体的核心是大模型,选择适合自己需求的大模型,能降低搭建难度,避免“杀鸡用牛刀”:

  • 普通人/新手:优先选择国内大模型(文心一言 4.0、通义千问 3.0),操作简单、中文适配性好,且有现成的智能体模板;
  • 技术从业者:可选择 GPT-4(推理能力强)、Claude 3(长文本处理有优势),支持自定义工具调用和 Prompt 优化。

步骤 3:搭建核心模块(无代码/低代码,实操落地)

基于选定的大模型,搭建智能体的核心模块——普通人用无代码平台(如豆包 Agent、文心一言 Agent Builder),直接拖拽配置;技术从业者可基于 API 开发,灵活度更高。

核心模块搭建重点(兼顾两种人群):

  • 记忆模块:普通人勾选“长期记忆”,设置记忆保留时间(如 7 天);技术从业者可对接向量数据库(如 Pinecone),优化记忆检索效率。
  • 规划模块:普通人使用平台自带的“任务规划模板”,输入需求关键词;技术从业者可通过 Prompt Engineering,定义规划逻辑(如“拆解复杂任务为 3-5 个步骤,优先调用高效工具”)。
  • 工具调用模块:普通人直接添加平台支持的工具(如 Excel、邮箱、浏览器),授权权限;技术从业者可自定义 API 接口,对接私有工具(如企业内部数据库)。

步骤 4:调试优化(关键环节,决定智能体的实用性)

搭建完成后,不要直接投入使用,先进行调试,解决“不精准、不自主”的问题,具体做法:

  • 测试核心任务:输入你预设的需求(如“整理本周报表”),观察智能体的步骤规划、工具调用是否合理,是否能完成目标;
  • 修正错误:如果出现“步骤遗漏”“工具调用错误”,调整规划逻辑或工具权限;如果出现“记忆混乱”,优化记忆模块的设置(如缩短记忆周期、明确记忆范围);
  • 优化体验:普通人可调整“响应速度”“指令精准度”;技术从业者可优化 Prompt、调整工具调用优先级,提升效率。

步骤 5:落地使用 + 持续迭代

调试完成后,即可投入日常使用,同时根据实际使用反馈,持续优化:

普通人:记录智能体未完成、完成不好的任务,定期调整需求描述、优化模块配置;

技术从业者:通过日志分析,优化工具调用逻辑、记忆检索算法,对接更多适配场景的工具,实现智能体的升级。

四、智能体的典型应用场景(普通人/企业都能参考)

智能体的应用场景非常广泛,核心是“替代重复性、规律性、有明确流程的任务”,以下是最典型、最易落地的场景,分个人和企业两类,方便参考:

(一)个人场景(普通人高频使用)

  • 办公自动化:整理报表、撰写文案、汇总信息、发送邮件,节省 80% 的重复性办公时间;
  • 信息汇总与筛选:自动检索行业资讯、整理学习资料、筛选重要邮件/消息,避免信息过载;
  • 日程与生活管理:规划每日/每周日程、设置提醒、预订票务、整理账单,提升生活效率;
  • 学习辅助:自主规划学习计划、解答学习疑问、整理笔记、生成复习资料,适配各类学习场景。

(二)企业场景(易落地、高性价比)

  • 客户服务:智能客服 Agent,自主响应客户咨询、处理常见问题、记录客户需求,降低人工客服成本;
  • 运营自动化:新媒体运营 Agent,自主撰写文案、排版、发布内容、统计数据,优化运营流程;
  • 数据分析:自动提取数据、生成分析报告、可视化数据图表,辅助企业决策,无需专业数据人员;
  • 行政办公:员工考勤统计、办公用品管理、会议安排与纪要整理,提升行政效率。

五、普通人 / 企业如何入场(不踩坑,从 0 到 1 起步)

很多人想入场智能体,但要么觉得“技术不够”,要么担心“投入太高”,其实无论是普通人还是企业,都有低成本、易落地的入场方式,核心是“先从小场景入手,不追求大而全”:

(一)普通人入场:零代码、低成本,快速上手

  • 工具选择:优先使用免费/低成本的无代码智能体平台(豆包 Agent、文心一言 Agent Builder、讯飞星火 Agent),无需编程,直接用模板搭建;
  • 起步场景:从最简单的任务入手(如“整理每日笔记”“汇总邮件”),熟悉智能体的使用逻辑,再逐步拓展到复杂任务;
  • 核心技巧:学会“精准描述需求”,需求越具体,智能体完成得越好;定期优化模块配置,贴合自己的使用习惯;
  • 避坑点:不追求“全能智能体”,聚焦 1-2 个高频场景;不盲目付费,先试用免费版本,确认有用再升级。

(二)企业入场:小成本试点,再规模化落地

  • 试点场景:选择重复性高、人力成本高的场景(如智能客服、数据汇总),先搭建 1 个简单的智能体试点,验证效果;
  • 技术选择:中小企业无需组建专业开发团队,用无代码/低代码平台搭建,降低投入;大型企业可组建小型开发团队,基于 API 定制开发,适配企业私有需求;
  • 落地步骤:试点 → 优化 → 规模化,先在一个部门落地(如客服部、运营部),总结经验后,再推广到全公司;
  • 避坑点:不盲目追求“高科技”,适配企业实际需求才最重要;不忽视员工培训,让员工学会使用智能体,提升落地效率。

六、未来趋势与判断(长期价值,适配 RAG 检索)

智能体不是“昙花一现”,而是大模型应用的长期趋势,未来 3-5 年,将逐步渗透到个人和企业的方方面面,这里给出 3 个明确的趋势判断,供参考:

  • 趋势 1:智能体将走向“轻量化、个性化”——普通人将拥有专属的智能体,适配自己的生活、工作、学习习惯;企业将拥有适配自身业务的定制化智能体,成为核心办公工具。
  • 趋势 2:工具联动更广泛,形成“智能体生态”——未来的智能体,将能联动更多工具(从办公软件到工业设备、从线上平台到线下场景),实现“一站式任务闭环”,无需切换多个工具。
  • 趋势 3:技术门槛持续降低,“人人都能搭建智能体”——无代码/低代码平台将越来越完善,普通人无需编程,通过简单的拖拽、配置,就能搭建自己的智能体;技术从业者将聚焦于“更复杂的智能体优化”,而非基础搭建。

同时,也有 2 个理性判断,避免盲目跟风:

  • 智能体无法替代人类:它擅长的是“重复性、规律性任务”,而人类的创造力、情感沟通、复杂决策能力,是智能体无法替代的;
  • 落地需要循序渐进:无论是个人还是企业,都不要追求“一步到位”,从 0 到 1、从简单到复杂,逐步落地、持续优化,才能发挥智能体的最大价值。

七、总结:给出明确行动建议(普通人/企业分别参考)

本文从背景、定义、实操、应用到趋势,完整讲解了智能体(AI Agent)从 0 到 1 的核心内容,最后给出明确的行动建议,帮你快速落地,不浪费时间:

(一)给普通人的行动建议

  1. 今天:打开一个无代码智能体平台(如豆包 Agent),注册账号,熟悉平台功能;
  2. 3 天内:搭建第一个简单的智能体(如“每日笔记整理 Agent”),测试并优化,实现初步落地;
  3. 1 周内:将智能体应用到 1 个高频场景(如办公汇总、学习辅助),养成使用习惯,逐步提升效率;
  4. 长期:持续优化智能体,拓展应用场景,让智能体成为自己的“高效助手”,节省时间、提升能力。

(二)给企业的行动建议

  1. 1 周内:梳理企业内部的“重复性高、人力成本高”的场景,确定 1 个试点场景;
  2. 1 个月内:选择合适的工具,搭建试点智能体,完成调试,投入使用,验证效果;
  3. 3 个月内:根据试点效果,优化智能体,逐步推广到其他部门,实现规模化落地;
  4. 长期:建立智能体落地机制,持续优化、迭代,对接更多业务场景,降低成本、提升效率。

最后想说:智能体的从 0 到 1,不是技术的遥不可及,而是普通人、企业都能抓住的机会。它的核心价值,是“解放人力、提升效率”——与其害怕技术变革,不如主动拥抱,从 0 到 1,一步步掌握智能体,让它成为自己的“助力”,而非“对手”。

主要更新:

Apple Watch 独立播放

  • 无需 iPhone 即可播放
  • 手表端完整控制(播放/暂停/进度/章节)
  • 适合跑步、健身等场景

格式支持扩展

  • PDF 阅读 + TTS 朗读
  • MOBI / AZW / AZW3 (Kindle 格式)
  • DOCX (Word 文档)
  • HTML / HTM (网页文件)
  • RTF (富文本)

核心功能

  • 离线 + 在线双模式
  • 播放速度调节 (0.5x - 2.0x)
  • CarPlay 车载支持
  • 本地文件管理

下载地址

iOS: https://apps.apple.com/us/app/audiotome/id6755520834

Android: https://play.google.com/store/apps/details?id=com.audiotome.audio_tome

交流群:

群二维码


评论留下平台+邮箱,送激活码

欢迎试用反馈

大家好,我是良许。

今天我们来聊一聊 C 语言中最让初学者头疼,却又最强大的特性——指针。

作为一名从事嵌入式开发多年的程序员,我深知指针在底层编程中的重要性。

无论是操作硬件寄存器、管理动态内存,还是实现高效的数据结构,指针都扮演着不可或缺的角色。

1. 什么是指针

1.1 指针的本质

指针其实就是一个变量,只不过这个变量存储的不是普通的数值,而是内存地址。

我们可以把内存想象成一排排的房间,每个房间都有一个门牌号(地址),而指针就是记录这个门牌号的本子。

通过这个门牌号,我们可以找到对应的房间,进而访问或修改房间里的内容。

在嵌入式开发中,这个概念尤为重要。比如 STM32 的 GPIO 端口,其实就是通过固定的内存地址来访问的。

当我们要点亮一个 LED 灯时,本质上就是通过指针操作特定地址的寄存器。

1.2 为什么需要指针

指针的存在主要解决了以下几个问题:

第一,高效传递数据。

当我们需要在函数之间传递大型数据结构时,如果直接传递整个结构体,会产生大量的复制开销。

而使用指针,只需要传递一个地址(通常是 4 字节或 8 字节),效率大大提升。

第二,动态内存管理。

在嵌入式系统中,内存资源往往非常有限。

通过指针和动态内存分配,我们可以在程序运行时根据实际需要申请和释放内存,提高内存利用率。

第三,直接操作硬件。

在嵌入式开发中,我们经常需要直接访问硬件寄存器。

这些寄存器都有固定的物理地址,必须通过指针来访问。

2. 指针的基本使用

2.1 指针的声明和初始化

声明一个指针变量的语法是在类型名后面加上星号(*)。例如:

int *p;        // 声明一个指向整型的指针
char *str;     // 声明一个指向字符的指针
float *fp;     // 声明一个指向浮点数的指针

需要注意的是,刚声明的指针是野指针,它指向一个不确定的地址,使用前必须初始化。

我们可以用取地址符(&)来获取变量的地址:

int num = 100;
int *p = &num;  // p指向num的地址
​
printf("num的值: %d\n", num);
printf("num的地址: %p\n", &num);
printf("p存储的地址: %p\n", p);
printf("p指向的值: %d\n", *p);

这段代码会输出 num 的值、num 的地址、指针 p 存储的地址(与 num 的地址相同),以及通过指针 p 访问到的值(也是 100)。

2.2 指针的解引用

解引用就是通过指针访问它所指向的内存中的值。

使用星号(*)操作符可以实现解引用:

int a = 50;
int *ptr = &a;
​
printf("a的值: %d\n", a);        // 输出50
printf("*ptr的值: %d\n", *ptr);  // 输出50
​
*ptr = 80;  // 通过指针修改a的值
printf("修改后a的值: %d\n", a);  // 输出80

在这个例子中,我们通过指针 ptr 修改了变量 a 的值。

这在函数参数传递中非常有用,可以实现真正的"传址调用"。

2.3 指针与函数

在 C 语言中,函数参数默认是值传递,也就是说函数内部对参数的修改不会影响外部变量。

但通过指针,我们可以实现传址调用:

void swap(int *a, int *b) {
    int temp = *a;
    *a = *b;
    *b = temp;
}
​
int main(void) {
    int x = 10, y = 20;
    printf("交换前: x=%d, y=%d\n", x, y);
    
    swap(&x, &y);
    printf("交换后: x=%d, y=%d\n", x, y);
    
    return 0;
}

这个经典的交换函数例子展示了指针的威力。

通过传递变量的地址,函数内部可以直接修改外部变量的值。

3. 指针的进阶应用

3.1 指针与数组

数组名本身就是一个指针常量,指向数组的首元素。

这是 C 语言中一个非常重要的概念:

int arr[5] = {1, 2, 3, 4, 5};
int *p = arr;  // 等价于 int *p = &arr[0];
​
printf("arr[0] = %d\n", arr[0]);    // 输出1
printf("*p = %d\n", *p);            // 输出1
printf("*(p+1) = %d\n", *(p+1));    // 输出2
printf("p[2] = %d\n", p[2]);        // 输出3

指针可以进行算术运算。

当指针加 1 时,实际上是移动了一个所指类型的大小。

比如 int 类型占 4 字节,那么 p+1 实际上是地址增加 4。

在嵌入式开发中,这个特性经常用于遍历数据缓冲区:

uint8_t buffer[256];
uint8_t *ptr = buffer;
​
// 通过指针遍历整个缓冲区
for(int i = 0; i < 256; i++) {
    *ptr = i;  // 写入数据
    ptr++;     // 指针移动到下一个位置
}

3.2 指针与字符串

在 C 语言中,字符串实际上就是字符数组,而字符串的操作大量使用指针:

char str[] = "Hello";
char *p = str;
​
while(*p != '\0') {
    printf("%c", *p);
    p++;
}
printf("\n");

这段代码通过指针遍历字符串并逐个打印字符。

在实际开发中,我们经常需要处理字符串,比如解析串口接收到的 AT 指令:

void parse_at_command(char *cmd) {
    if(strncmp(cmd, "AT+", 3) == 0) {
        char *param = cmd + 3;  // 指针偏移到参数部分
        printf("收到AT指令,参数: %s\n", param);
    }
}

3.3 多级指针

指针本身也是变量,也有自己的地址,因此可以有指向指针的指针,称为多级指针:

int num = 100;
int *p = &num;      // 一级指针
int **pp = &p;      // 二级指针

printf("num = %d\n", num);
printf("*p = %d\n", *p);
printf("**pp = %d\n", **pp);

**pp = 200;  // 通过二级指针修改num的值
printf("修改后num = %d\n", num);

多级指针在动态二维数组、函数指针数组等场景中很常见。

在嵌入式开发中,有时需要动态管理设备列表,就会用到二级指针。

4. 指针在嵌入式中的实战应用

4.1 操作硬件寄存器

在 STM32 开发中,我们经常需要直接操作寄存器。

这些寄存器都有固定的物理地址,必须通过指针访问:

// 定义GPIO端口的基地址
#define GPIOA_BASE    0x40020000U
#define GPIOA_MODER   (*(volatile uint32_t *)(GPIOA_BASE + 0x00))
#define GPIOA_ODR     (*(volatile uint32_t *)(GPIOA_BASE + 0x14))

// 配置PA5为输出模式
void led_init(void) {
    // 使能GPIOA时钟
    RCC->AHB1ENR |= RCC_AHB1ENR_GPIOAEN;

    // 配置PA5为输出模式
    GPIOA_MODER &= ~(3U << (5 * 2));  // 清除原配置
    GPIOA_MODER |= (1U << (5 * 2));   // 设置为输出
}

// 点亮LED
void led_on(void) {
    GPIOA_ODR |= (1U << 5);
}

// 熄灭LED
void led_off(void) {
    GPIOA_ODR &= ~(1U << 5);
}

这里的 volatile 关键字非常重要,它告诉编译器这个变量可能被外部因素改变,不要对其进行优化。

在访问硬件寄存器时必须使用 volatile 修饰。

4.2 DMA 数据传输

在使用 STM32 的 DMA 功能时,我们需要指定源地址和目标地址,这都是通过指针实现的:

uint8_t tx_buffer[128];
uint8_t rx_buffer[128];

void dma_uart_init(void) {
    // 配置DMA
    hdma_usart1_tx.Instance = DMA2_Stream7;
    hdma_usart1_tx.Init.Channel = DMA_CHANNEL_4;
    hdma_usart1_tx.Init.Direction = DMA_MEMORY_TO_PERIPH;
    hdma_usart1_tx.Init.PeriphInc = DMA_PINC_DISABLE;
    hdma_usart1_tx.Init.MemInc = DMA_MINC_ENABLE;

    HAL_DMA_Init(&hdma_usart1_tx);
}

void send_data_via_dma(void) {
    // 通过DMA发送数据,传递缓冲区指针
    HAL_UART_Transmit_DMA(&huart1, tx_buffer, sizeof(tx_buffer));
}

4.3 动态内存管理

在嵌入式系统中,虽然要谨慎使用动态内存,但在某些场景下确实需要:

#include <stdlib.h>

typedef struct {
    uint8_t id;
    uint16_t data;
    uint32_t timestamp;
} sensor_data_t;

sensor_data_t* create_sensor_data(uint8_t id) {
    sensor_data_t *data = (sensor_data_t*)malloc(sizeof(sensor_data_t));
    if(data != NULL) {
        data->id = id;
        data->data = 0;
        data->timestamp = HAL_GetTick();
    }
    return data;
}

void process_sensor(void) {
    sensor_data_t *sensor = create_sensor_data(1);
    if(sensor != NULL) {
        // 处理传感器数据
        sensor->data = read_sensor();

        // 使用完毕后释放内存
        free(sensor);
    }
}

需要注意的是,在嵌入式系统中使用动态内存要特别小心,因为频繁的 malloc 和 free 可能导致内存碎片,影响系统稳定性。

5. 指针使用的注意事项

5.1 野指针问题

野指针是指向未知内存区域的指针,使用野指针会导致程序崩溃或产生不可预测的行为:

int *p;  // 野指针,未初始化
*p = 10; // 危险!可能导致程序崩溃

// 正确做法
int *p = NULL;  // 初始化为NULL
if(p != NULL) {
    *p = 10;
}

在使用指针前,一定要确保它已经被正确初始化。

养成将指针初始化为 NULL 的习惯,并在使用前检查是否为 NULL。

5.2 内存泄漏

动态分配的内存如果忘记释放,就会造成内存泄漏:

void memory_leak_example(void) {
    int *p = (int*)malloc(sizeof(int) * 100);
    // 使用p
    // 忘记调用free(p),造成内存泄漏
}

// 正确做法
void correct_example(void) {
    int *p = (int*)malloc(sizeof(int) * 100);
    if(p != NULL) {
        // 使用p
        free(p);
        p = NULL;  // 释放后置为NULL
    }
}

5.3 悬空指针

当指针指向的内存被释放后,如果继续使用该指针,就会产生悬空指针问题:

int *p = (int*)malloc(sizeof(int));
*p = 100;
free(p);
// p现在是悬空指针
*p = 200;  // 危险!访问已释放的内存

// 正确做法
free(p);
p = NULL;  // 释放后立即置为NULL

6. 总结

指针是 C 语言的精髓,也是嵌入式开发的基石。

虽然初学时可能觉得难以理解,但只要多加练习,理解其本质(就是内存地址),就能逐渐掌握。

在我多年的嵌入式开发经验中,指针无处不在:从操作硬件寄存器到管理数据结构,从函数参数传递到实现复杂算法,都离不开指针。

掌握指针不仅能让你写出更高效的代码,还能帮助你深入理解计算机的工作原理。

特别是在嵌入式领域,对指针的熟练运用直接关系到能否写出高质量的底层代码。

希望这篇文章能帮助大家更好地理解和使用 C 语言的指针,在嵌入式开发的道路上走得更远。

大家好,上次在 V2EX 发帖收获了 40 名左右的内测用户,感谢 v 友的支持。

当时产品还有很多不完善的地方,比如缺少检索能力,生成质量不佳,工具执行成功率不够好等问题。

经过一段时间的开发,这几天产品正式上线内测啦,欢迎 v 友使用!

产品介绍

涌创是一款智能体驱动的 AI 写作工具,它能够和你一起创作优秀的小说网文,即使你没有创作经验它也可以作为帮手带着你一起创作优秀的网络小说。

涌创支持记忆、技能、检索、上下文感知等多项能力,让它在成本与内容质量之间平衡。

地址

https://flowva.top/

福利

评论送积分兑换码

欢迎各位 V 友提 Bug 给建议!也欢迎推荐给朋友使用

multibootusb-9.2.0-setup是个多系统启动U盘制作工具,能把多个系统镜像(像 Ubuntu、Kali、Windows PE 等)装到一个 U 盘里,开机时选想进的系统就行。

一、准备工作

  1. 下载安装包

    安装包下载:https://pan.quark.cn/s/f3b15864c764

  2. 准备 U 盘

    • 至少 8GB 容量(越大越好,装的系统越多)。
    • 先把 U 盘里的东西备份一下,制作时会格式化!
  3. 关闭杀毒软件(可选)

    • 个别杀毒软件可能会误报,安装时可以暂时关掉,装完再开。

二、安装步骤

  1. 双击 multibootusb-9.2.0-setup.exe运行。
  2. 如果是 Windows 10/11,会弹出“用户账户控制”提示 → 点  “是” (需要管理员权限)。
  3. 进入安装向导,选语言(默认 English,有的版本有中文可选)。
  4. 点  “Next” ​ 继续。
  5. 选安装位置:

    • 默认是 C:\Program Files\multibootusb,想改就点“Browse”选 D 盘或其他盘。
  6. 选附加任务:

    • 建议勾“Create a desktop shortcut”(创建桌面快捷方式),点“Next”。
  7. 点  “Install” ​ 开始安装,等进度条走完(大概十几秒)。
  8. 最后点  “Finish” ​ 完成安装,桌面上会有 multibootusb 图标。

三、首次运行设置

  1. 双击桌面图标打开软件。
  2. 插入准备好的 U 盘(会被自动识别)。
  3. 在“Select USB Drive”下拉菜单里选你的 U 盘(注意别选错!)。
  4. 点“Detect Drives”刷新一下,确保 U 盘被正确识别。

四、基本使用(简单说两句)

  • 添加系统镜像:点“Browse”选择 ISO 镜像文件(比如 Ubuntu.iso、kali-linux.iso)。
  • 写入 U 盘:选好镜像后点“Install”,等待进度条走完(时间取决于镜像大小和 U 盘速度)。
  • 多系统共存:重复添加不同镜像,它们会按顺序排在启动菜单里。
  • 启动测试:制作完成后,重启电脑,进 BIOS 设置 U 盘启动,就能看到多系统菜单了。

近期出现的高危漏洞中,就包括飞塔(Fortinet)FortiSIEM 安全信息与事件管理设备存在的严重漏洞,攻击者可通过远程利用该漏洞完全攻陷设备系统,进而侵入企业的内部网络。
该漏洞编号为CVE-2025-64155,网络安全公司 Defused 于本周四发布报告称,在飞塔发布安全预警后不久,其蜜罐系统就监测到了针对该漏洞的在野活跃利用尝试
芬兰网络安全公司 Defused 的首席执行官兼创始人西莫・科霍宁表示,此次攻击尝试中,来自中国境内 IP 地址的攻击行为异常活跃,且在该漏洞细节公布后,一系列定向攻击几乎立即展开。
飞塔于 1 月 13 日公开了该漏洞的相关细节,发布安全公告披露这一操作系统命令注入漏洞,并推出软件更新包进行修复。公告指出,除 FortiSIEM 云版本及 7.5 版本外,所有 FortiSIEM 版本均存在 CVE-2025-64155 漏洞,该漏洞可能导致未通过身份验证的攻击者,通过构造恶意 TCP 请求执行未授权的代码或命令。
飞塔已发布 7.4.1、7.3.5、7.2.7 和 7.1.9 版本的修复程序以解决该问题。而 7.0.x 及 6.7.x 系列版本虽同样存在该漏洞,但飞塔表示不会为这些版本推出修复补丁,同时建议相关用户将系统迁移至仍受官方支持的已修复版本
飞塔还指出,用户也可通过限制对 7900 端口上 phMonitor 服务的访问,实现对该漏洞的风险缓解。
该漏洞由网络安全公司 Horizon3 发现,该公司已于 2025 年 8 月 14 日将漏洞信息上报给飞塔。Horizon3 在技术深度分析中称,其向飞塔上报的漏洞包含两个:一是未授权的参数注入漏洞,该漏洞可导致任意文件写入,让攻击者以管理员权限执行远程代码;二是文件覆盖提权漏洞,攻击者可通过该漏洞获取系统最高 root 权限。为配合厂商修复,Horizon3 在漏洞上报后的 153 天里未对外透露任何相关信息,直至飞塔 1 月 13 日发布安全更新后才公开细节。
Horizon3 在协同漏洞披露声明中表示,该漏洞是其在 2025 年 8 月飞塔发布 FortiSIEM 设备另一款命令注入漏洞(编号CVE-2025-25256)的安全公告后,后续发现的新漏洞。
该公司称,CVE-2025-64155 漏洞存在于phMonitor 服务中,该服务是 FortiSIEM 设备不同功能模块的通信核心 —— 负责将数据上传至管理端的远程采集器,正是通过该服务基于 TCP/IP 传输自定义 API 消息实现通信。
同样在 1 月 13 日,Horizon3 还在 GitHub 平台上,发布了该漏洞的概念验证漏洞利用代码
网络安全公司 Arctic Wolf 指出,Horizon3 发布的概念验证代码展示了攻击者如何将 CVE-2025-64155 漏洞武器化:通过向 curl 等工具注入命令,实现对设备的完全系统接管。未通过身份验证的攻击者可借助该方式,将反向 shell 载荷写入通常仅管理员有权限操作的文件,随后进一步提权获取系统 root 权限。
为防范此类漏洞被利用,飞塔建议企业将 FortiSIEM 设备部署在受保护的网络网段内,通过防火墙进行安全防护,避免设备直接暴露在公共互联网中。
Arctic Wolf 表示:“将该服务与公共互联网隔离,可有效缩小设备的攻击面,防止攻击者利用 CVE-2025-64155 这类高危漏洞实现初始入侵。”

攻击目标:边缘网络设备

飞塔此次发布漏洞预警的背景,是业界持续发出的安全警示:各类攻击者 —— 包括国家级黑客组织、勒索软件团伙及其他网络犯罪分子,正将边缘网络设备列为主要攻击目标。
网络安全公司 VulnChec 于本周三发布 2025 年已知被利用漏洞分析报告,发现防火墙、VPN 设备、代理服务器等网络边缘设备是被攻击者利用最多的目标,其次为内容管理系统和开源软件。
通常在漏洞被分配 CVE 编号、厂商发布公开安全预警后,针对该漏洞的利用行为就会迅速出现。
VulnChec 指出,2025 年有近 30% 的已知被利用漏洞,在CVE 编号发布当天或之前就已被攻击者利用。这一数据凸显了攻击者的行动速度,他们往往能在漏洞公开披露或获得 CVE 编号前,就完成漏洞的利用部署。
攻击者针对新漏洞的攻击行动向来十分迅速,但企业的漏洞修复工作却常常滞后,甚至从未开展。
本月早些时候,专注于对抗恶意软件、僵尸网络和网络欺诈的非营利安全组织 Shadowserver 基金会发出警示:其扫描发现,仍有超过 1 万台飞塔防火墙设备存在CVE-2020-12812 漏洞,而该漏洞的修复补丁,飞塔早在 5 年半前就已发布。
该基金会发布报告前,飞塔首席信息安全官卡尔・温莎已于 2025 年 12 月 24 日在博客中披露,飞塔监测到该漏洞在特定配置环境下,近期已出现实际在野利用行为
在特定条件下,攻击者可利用该漏洞强制飞塔 FortiGate 防火墙启用特定身份验证选项,进而绕过双因素认证机制,实现对管理员账户和 VPN 账户的未授权访问。
温莎表示:“这一特殊的身份验证漏洞,根源在于 FortiGate 防火墙默认对用户名进行大小写敏感校验,而企业的 LDAP 目录服务通常不开启该校验规则。”
飞塔已于 2020 年 7 月在 FG-IR-19-283 安全公告中,发布了 FortiOS 6.0.10、6.2.4 和 6.4.1 版本的修复程序,可有效防范该漏洞攻击。但正如 Shadowserver 基金会的扫描结果所示,仍有大量企业未对存在漏洞的设备进行补丁修复。
针对尚未安装修复更新的企业,温莎详细列出了防护措施,可通过相关配置防止防火墙故障切换至错误配置的 LDAP 组设置,从而阻断攻击者对该漏洞的利用。
至于这些迟迟未安装补丁的企业,是否会至少采取上述风险缓解措施,以及具体何时实施,目前仍未可知。

勒索软件组织 RansomHub 对苹果核心供应商立讯精密发起勒索攻击,窃取超 1TB 敏感数据,其中包含 2019 至 2025 年间的产品设计原理图与未发布产品规划方案。此次数据泄露暴露了供应链的网络安全漏洞,不仅让苹果的竞争优势面临被竞品和仿冒厂商觊觎的风险,更凸显出全球制造网络亟需强化网络安全防护措施的紧迫性。

揭秘此次数据泄露:立讯精密遭遇网络攻击,苹果创新核心资产岌岌可危

在技术制造领域,保密的重要性堪比核心芯片,而苹果一家关键供应商近期遭遇的网络攻击,已在行业内引发轩然大波。苹果产品的重要中国代工厂立讯精密工业股份有限公司 沦为勒索软件攻击受害者,超 1TB 敏感数据遭泄露。这起于 2025 年 12 月末首次被披露的事件,现已证实由臭名昭著的勒索软件组织 RansomHub 所为,该组织还扬言将公布窃取的文件,其中包括工程设计原理图、3D 计算机辅助设计模型以及机密产品规划方案。
此次泄露直指全球供应链的安全短板,对于苹果这类依靠国际合作伙伴网络维持消费电子领域竞争优势的企业而言,影响尤为重大。从网络安全论坛和行业报告披露的细节来看,攻击者入侵立讯精密系统后,窃取的资料可能涉及苹果 2019 至 2025 年间所有未发布产品信息。这并非一次普通的黑客攻击,这些数据对竞品厂商、仿冒者,甚至试图窥探苹果未来产品布局的国家行为体而言,都堪称价值连城的信息宝库
苹果素来以严苛的安全防护体系自居,但此次事件暴露了这家科技巨头对供应商安全防御能力的高度依赖。立讯精密负责 iPhone、AirPods 等多款苹果设备的零部件组装,是苹果生产生态中的核心节点。近年来该企业业务规模大幅扩张,甚至成为富士康等老牌代工厂的强劲竞争对手,而此次数据泄露则表明,其业务扩张或许是以牺牲完善的网络安全防护为代价。

过往入侵事件的警示与持续升级的网络威胁

业内人士指出,此次攻击是针对苹果供应链的一系列网络攻击的最新一环。早在 2021 年,苹果另一家供应商广达电脑就曾遭遇 REvil 勒索软件组织的类似攻击,导致未发布 MacBook 的设计原理图被泄露。据苹果科技资讯网站 MacRumors 的相关报道,该事件迫使苹果加快对所有合作供应商的安全审计工作。而此次立讯精密的数据泄露事件性质更为严重,黑客宣称已获取产线相关数据,此举或将直接扰乱苹果的产品制造进度。
发起此次攻击的 RansomHub 组织,向来以针对知名企业实施大胆的网络攻击著称。该组织的关联人员在暗网发帖炫耀,称已窃取包含电路设计、产品蓝图在内的立讯精密内部文件。匿名的网络安全专家表示,此次被盗数据可能包含苹果多款未发布设备的原型机信息,甚至包括增强现实硬件和下一代可穿戴设备的技术升级细节。RansomHub 组织扬言,若未收到赎金就将泄露全部数据,这让事件的紧迫性进一步升级 —— 任何信息的公开,都可能严重削弱苹果的行业竞争优势。
苹果对此的回应延续了其一贯的谨慎风格,暂未就此次数据泄露事件直接置评。但知情人士透露,苹果正与立讯精密紧密合作,开展损失评估并强化安全防御体系。这一合作至关重要,苹果 2023 年在官方新闻中心发布的一份研究报告就曾强调,全球数据泄露威胁正持续加剧,而苹果向来依靠端到端加密技术保护用户数据安全。

供应链安全漏洞全面暴露

此次事件的影响远不止于直接的数据丢失。对于行业从业者而言,这起泄露事件引发了人们对科技制造领域主流准时制生产模式抗风险能力的质疑。立讯精密在中国的生产基地承担了苹果大量产品的组装工作,如今其网络安全的潜在漏洞已成为行业关注的焦点。据印度时报新闻网报道,此次攻击可能是利用了系统老旧软件的漏洞,或通过内部人员权限入侵,使得黑客得以在数周内隐匿在立讯精密内部系统中进行操作。
此次事件难免让人联想到近期发生的其他网络安全事故。就在去年,研究人员发现苹果 M 系列芯片存在一个名为 GoFetch 的安全漏洞,攻击者可通过该漏洞从系统缓存中提取加密密钥。网络安全记者金・泽特在 X 平台援引相关论文细节指出,这一漏洞影响了 M1、M2、M3 全系列处理器,凸显出硬件层面的安全风险与立讯精密这类软件层面的数据泄露形成叠加威胁。尽管苹果已通过软件更新修复了该漏洞,但这一事件也印证了没有任何系统能做到绝对安全
此外,立讯精密遭攻击的时间节点,恰逢美中贸易关系引发的地缘政治紧张局势升级。苹果此前已在推进供应链多元化布局,减少对中国制造商的依赖,将部分产能转移至印度和越南。业内人士推测,此次数据泄露事件可能会加速这一进程,促使苹果对所有合作供应商制定更严苛的网络安全标准。一家竞品代工厂的高管表示:“这不仅仅是数据泄露的问题,更是对整个苹果生态系统信任的考验。”

勒索软件的攻击手段与行业连锁反应

深入分析 RansomHub 的攻击手段可以发现,该组织使用的勒索软件技术十分先进,可在对文件进行加密的同时,将数据窃取至外部服务器作为勒索筹码。此次该组织宣称窃取了超 1TB 苹果机密信息,这一数据量远超以往多数数据泄露事件。网络安全资讯网站 Help Net Security 的报告证实,RansomHub 的关联人员已在地下论坛发布了部分被盗数据样本,其中包括看似真实的工程图纸片段。
此次事件给苹果带来的潜在损失是多方面的。一旦数据被公开,苹果未来数年的产品路线图将提前曝光,三星、华为等竞品厂商可据此提前布局,针对性地抗衡苹果的创新成果。例如,未发布 iPhone 机型的设计原理图、智能家居设备的实验性功能细节等,都可能流入黑市,进而引发仿冒产品的泛滥。行业分析师估算,此类知识产权泄露事件曾导致企业蒙受数十亿美元的营收损失。
而立讯精密自身也面临着品牌声誉受损和潜在经济处罚的风险。作为苹果第二大代工厂,立讯精密为扩张产能投入了巨额资金,此次数据泄露事件可能会引发苹果对双方合作合同的重新审核,甚至面临合作终止的后果。苹果科技资讯网站 AppleInsider 等账号在 X 平台发布的信息显示,暗网上已出现兜售此次被盗数据的信息,显然已有买家开始争相接洽。这种地下交易市场正借助此类数据泄露事件不断发展,数据中间商愿意为独家的技术机密支付高价。

苹果的战略应对与未来的安全防护措施

此次数据泄露事件后,苹果大概率会采取多维度的应对策略。在企业内部,技术团队可能正在开展溯源分析,追踪攻击源头,并与专业网络安全公司合作弥补安全漏洞;在外部,苹果将进一步向供应商施压,要求其采用零信任安全架构—— 即系统内任何主体都不会被默认赋予信任权限。这一转变也与行业整体发展趋势相契合,2025 年微软就曾披露过一个编号为 CVE-2025-31199 的 macOS 系统漏洞,攻击者可通过该漏洞窃取私人文件数据,这一事件也推动了行业对安全架构升级的重视。
展望未来,立讯精密数据泄露事件可能会推动相关监管政策的调整。各国政府,尤其是美国政府,正推动出台数据泄露强制上报制度,并强化供应链安全监管。拜登政府推出的网络安全行政令或将迎来新的实施动力,迫使科技巨头对合作供应商开展更严格的安全审计。对苹果而言,这意味着需要在创新速度与安全防护之间找到平衡,这一难题也一直贯穿于苹果与安卓生态的竞争过程中。
业内人士同时强调了人为因素的重要性:立讯精密等供应商必须加强员工网络安全培训,提升全员钓鱼邮件识别意识。网络安全资讯账号 Dark Web Informer 在 X 平台发布的一则消息称,2024 年苹果曾发生内部工具数据泄露事件,这一前车之鉴表明,即便是微小的信息暴露,也可能演变成严重的安全事故。企业通过集成先进的人工智能驱动威胁检测技术,能更精准地预判网络攻击,将被动的安全补救转变为主动的防御。

全球影响与企业竞争优势的重构

此次数据泄露事件造成的全球影响不容小觑。在知识产权已成为国家战略资产的时代,这类事件正不断引发各界对国际网络安全规则的探讨。中国作为全球制造业中心,让此次事件的影响更添复杂性,尽管目前没有任何证据,但仍有部分专家猜测此次攻击可能涉及国家行为,不过现阶段调查焦点仍集中在 RansomHub 这类跨境作案、逍遥法外的犯罪集团上。
对于苹果的竞品厂商而言,此次事件既是机遇,也暗藏风险。部分厂商可能会试图利用泄露的数据分析苹果的研发方向,但与此同时,这些企业自身也可能成为勒索软件组织的攻击目标,这或将推动整个行业联合起来,建立网络安全情报共享机制。美国网络安全和基础设施安全局等机构,早已在倡导搭建协作框架,共同对抗勒索软件威胁。
归根结底,此次事件将考验苹果的抗风险能力。苹果此前曾经历过新冠疫情、贸易战等多重供应链危机,且每次都能浴火重生,发展得更为强劲。尽管此次数据泄露事件性质严重,但也可能推动苹果在安全制造领域实现技术创新,确保未来的新产品在正式发布前,始终保持高度保密的状态。

从此次事件中汲取的行业教训

行业领军企业从此次事件中强调了供应链多元化的重要性:苹果扩大供应商版图的举措虽能降低单一供应商带来的风险,但真正的安全防护需要实现供应链的端到端可视化管理。区块链等用于追踪数据完整性的技术正逐渐得到应用,可为敏感文件打造不可篡改的分布式账本,提升数据安全等级。
此外,黑客发起勒索攻击背后的巨额经济利益,也凸显出企业亟需建立完善的网络安全保险机制和数据恢复预案。立讯精密此次选择支付赎金或是拒绝妥协,都将为其他供应商处理此类网络安全危机树立先例。
随着事件的逐渐平息,立讯精密数据泄露事件也为现代制造业敲响了警钟 —— 数字时代的网络威胁无处不在。对苹果而言,这不仅是强化自身安全防线的号召,更是要筑牢整个供应链的安全屏障,唯有如此,才能守住支撑其市场主导地位的产品神秘感与技术创新优势。

蓝色起源正式发布太赫兹波(TeraWave)卫星网络,该网络规划部署 5408 颗卫星,依托光通信技术实现 6 太比特每秒的传输速率,计划 2027 年末起面向企业与政府客户落地。该项目聚焦高带宽企业级商用场景,直接对标太空探索技术公司的星链网络。尽管面临监管审批与部署落地的多重挑战,这一战略转型仍有望重塑全球数据基础设施格局。

蓝色起源太赫兹波项目引燃高速数据领域太空新竞赛

杰夫・贝索斯旗下的蓝色起源,凭借太赫兹波卫星网络的发布正式入局卫星通信赛道。这一雄心勃勃的网络项目可在全球任意地点实现最高 6 太比特每秒(Tbps)的数据传输速率,于 2026 年 1 月 21 日正式对外公布。这一举措标志着该公司迎来重大战略转型:此前蓝色起源以火箭研发和探月计划为核心业务,如今将在蓬勃发展的天基互联网基础设施领域,与埃隆・马斯克旗下的太空探索技术公司展开正面竞争。根据官方最新公告,太赫兹波网络计划 2027 年末启动卫星部署,核心目标客户为企业、政府机构及数据中心,而非普通消费者。
该网络的核心竞争力在于光通信技术,凭借这一技术可实现前所未有的对称式数据传输速率。这一布局的意义远不止于提升网络速度,更是为海量数据处理需求搭建核心骨干网络,覆盖人工智能驱动的数据分析、政府高安全等级业务运营等多类场景。据雅虎财经相关报道细节,该系统专为极致传输速率设计,性能远超当前民用网络标准,成为各类对高可靠性、高带宽连接有刚性需求的大型项目的关键支撑。
业内人士认为,这是蓝色起源针对太空探索技术公司星链的战略回应。目前星链已完成数千颗卫星的部署,在宽带服务领域占据可观市场份额。与星链聚焦全球民用网络接入不同,太赫兹波网络深耕高价值企业级商用及政府专属场景,有望在数据安全与传输速率为核心需求的领域开辟专属市场。

拆解太赫兹波网络的核心技术

太赫兹波网络的核心,是基于先进激光技术的星间激光链路星地激光链路,其实现的传输速率有望彻底改变全球信息流通方式。太空领域爱好者与分析师在 X 平台的发文均对该技术表示高度关注,有观点指出,该网络的技术潜力可与美国国家航空航天局过往的激光通信里程碑项目比肩,有望实现数分钟内太字节级的数据传输。
蓝色起源在 X 平台发布的项目公告中明确表示,该网络可为数万用户提供关键业务级通信连接服务。这一能力依托公司自研的蓝环(Blue Ring)平台打造,该平台可实现跨轨道的有效载荷调度与星上数据处理,与太赫兹波网络的架构实现无缝融合。
与竞品的对比在所难免。据《个人电脑杂志》报道,尽管星链的传输速率表现亮眼,但太赫兹波网络 6Tbps 的速率指标精准对标企业级需求,在专业场景的原始吞吐量上,有望超越同类竞品。

太赫兹波项目对蓝色起源整体战略的深远意义

此次布局恰逢蓝色起源的战略关键期 —— 此前该公司因发展进度落后于太空探索技术公司而备受诟病。贝索斯入局卫星星座市场,充分发挥了其亚马逊的背景优势:亚马逊网络服务的核心正是数据中心,太赫兹波网络可与该业务形成深度协同。业内人士推测,太赫兹波网络或将与亚马逊云服务整合,为远程数据处理打造超高速传输链路。
从财务角度看,该项目是一笔巨额投资。5000 余颗卫星的部署需要多次发射任务支撑,发射载体大概率为蓝色起源仍在研发中的新格伦火箭(New Glenn)。路透社的报道强调了该项目的规模,指出其聚焦数据中心与企业服务的定位,有望为蓝色起源创造稳定的收入流。
市场对此反应迅速。据 TipRanks 的最新数据,太赫兹波网络发布后,回声星、AST 移动太空等竞品企业的股价出现下跌,反映出投资者对天基通信领域竞争加剧的担忧。

部署落地与监管层面的多重挑战

如此规模的卫星网络部署,面临着诸多现实阻碍。美国联邦通信委员会等机构的监管审批是关键环节,尤其是当前近地轨道的卫星部署已趋于饱和。蓝色起源必须妥善解决频谱分配与轨道碎片防控问题,这类问题也曾成为同类卫星项目的发展瓶颈。
技术层面,实现 6Tbps 的传输速率需要攻克大气干扰难题,并保障激光链路的精准对准。美国国家航空航天局曾在 X 平台发布过 TBIRD 实验的相关数据,该实验实现了 200Gbps 的传输速率,太赫兹波网络计划在此基础上实现跨越式升级,但实际落地过程中或面临进度延迟。
此外,2027 年第四季度启动部署的时间规划,完全依赖于新格伦火箭的研发进度。业内多方分析指出,火箭测试环节的任何延迟,都可能导致整个太赫兹波项目的推进受阻。

与星链及其他竞品的竞争格局

太空探索技术公司的星链已凭借第三代卫星实现单星太比特级的传输能力,树立了行业高标杆。X 平台去年的相关讨论提及,星链通过星舰火箭发射,单次发射有望实现 60Tbps 的总传输能力,直观体现出带宽领域的太空竞赛态势。尽管太赫兹波网络以企业级市场为差异化定位,但与星链的能力重叠仍可能引发激烈竞争。
其他玩家也在加速布局,例如 AST 移动太空公司正推进搭载大型相控阵天线的蓝鸟卫星发射,其最新进展也在 X 平台公布。蓝色起源的入局,让这场赛道竞争愈发激烈,有望推动全行业的技术创新。
从商业合作角度,太赫兹波网络具备强大的合作吸引力。各国政府为国防、灾害应急等场景寻求高安全通信方案,或将成为该网络的重要客户;数据中心也可借助该网络实现全球数据的无缝同步。

光通信技术的创新突破

深入来看,太赫兹波网络采用的光通信链路,相比传统射频通信系统,具备更低的时延更高的传输效率。这一技术方向与美国国家航空航天局的 TBIRD 实验等项目的发展趋势高度契合,该实验曾实现单次传输 3.6 太字节的数据量,相关历史数据仍可在 X 平台的存档内容中查询。
蓝色起源宣称,太赫兹波网络实现了上下行速率对称,即上传与下载速率持平,这一特性对于分布式场景下的实时人工智能训练等应用至关重要。印度数字媒体 Devdiscourse 的文章详细阐述了这一技术将如何开启全球通信的新时代,并强调该网络在应对指数级增长的数据量方面的核心作用。
在业内人士看来,该网络最具吸引力的潜力在于与边缘计算的融合。通过蓝环平台实现星上数据处理,太赫兹波网络可减少对地面计算中心的依赖,进而降低运营成本、提升数据安全性。

市场潜力与经济影响

分析师预测,在偏远地区高速数据需求的推动下,卫星通信行业将迎来指数级增长。太赫兹波网络 6Tbps 的传输能力,让蓝色起源有望在这一市场中占据一席之地,尤其在海事、航空等传统通信服务覆盖不足的领域优势显著。
其带来的经济连锁反应将十分深远。高速数据传输技术将推动远程医疗、自动驾驶等领域的技术突破,这类场景的毫秒级决策依赖于高稳定性的网络支撑。X 平台上关于星链业务拓展的讨论也印证了,这类天基通信系统正深刻重塑各行业的发展格局。
不过,定价策略仍是未知因素。面向企业的专属服务或定位于高端市场,但行业竞争可能推动价格下探,间接惠及终端用户。

环境与伦理层面的考量

太空可持续发展已成为全球关注的焦点。太赫兹波网络的 5408 颗卫星,将进一步增加轨道空间的拥堵程度,引发各界对其轨道碎片防控措施的质疑。尽管蓝色起源已承诺采取负责任的部署策略,但业内仍在密切关注其实际执行情况。
伦理层面,保障通信服务的公平可及性是核心问题。尽管该网络现阶段瞄准企业市场,但若能实现成本下探,其技术成果有望逐步惠及普通用户,助力弥合数字鸿沟。
地缘政治层面,在全球多国均在布局同类天基通信技术的背景下,太赫兹波这一美国本土研发的网络项目,将进一步强化美国在太空领域的技术实力。

蓝色起源的未来发展方向

展望未来,太赫兹波网络的应用场景或超越通信领域。该网络与蓝色起源探月计划的融合,有望将通信覆盖延伸至地月空间,为未来的月球探测任务提供通信支撑。
与科技巨头的合作将加速该网络的商业化落地。试想亚马逊网络服务借助太赫兹波网络实现全球云服务的容灾备份,这一协同效应是贝索斯独有的资源优势,有望充分发挥。
从 X 平台的热议度来看,投资者对该项目的情绪整体乐观,多篇发文强调太赫兹波网络有望大幅提升蓝色起源的企业估值。

规模落地:从项目发布到卫星入轨

从项目发布到卫星正式入轨,需要经过严苛的测试环节。地面站、用户终端、卫星原型机等核心设备均需完成优化调试。尽管蓝色起源在亚轨道飞行领域的技术积累为项目奠定了基础,但从亚轨道技术向轨道卫星星座的规模化拓展,仍是一次巨大的跨越。
与光通信组件供应商的合作尤为关键。业内报道显示,蓝色起源或将与激光技术领域的头部企业合作,以实现 6Tbps 的速率指标。
归根结底,项目的成败取决于执行能力。若蓝色起源能如期落地技术规划,太赫兹波网络将重新定义高速数据传输的行业标准,挑战现有市场格局并推动全新的技术创新。

全行业的发展变革

太赫兹波网络的发布,折射出太空正成为全球数据传输大动脉的行业趋势。在人工智能领域对带宽需求持续攀升的背景下,太赫兹波这类高速天基通信网络的出现恰逢其时。
本月早些时候彭博社的评论文章探讨了星链的发展历程,对比来看,高估值背景下的技术创新压力,正同时作用于蓝色起源与太空探索技术公司两家企业。
在业内人士眼中,太赫兹波项目标志着蓝色起源的成熟转型 —— 从单纯的火箭研发企业,成长为覆盖全领域的太空科技玩家。

战略投资与潜在风险

支撑此类大型项目需要雄厚的资金实力。贝索斯的个人财富为蓝色起源提供了资金保障,但要实现规模化发展,仍需引入外部投资者。
项目面临的风险包括技术研发失败市场饱和。若星链持续占据市场主导地位,太赫兹波网络必须凭借更优质的企业级服务实现差异化竞争。
但与此同时,项目的发展潜力也极为巨大。即便仅占据全球数据通信市场的一小部分份额,也有望为蓝色起源带来数十亿美元的营收。

展望数据驱动的未来

本质上,太赫兹波网络是太空探索与数字基础设施深度融合的产物。在数据量呈爆炸式增长的当下,这类技术解决方案已成为时代刚需。
对于各国政府而言,该网络为危机场景下提供了高韧性的通信保障;对于企业而言,其突破了传统光纤网络的地域限制,为全球化业务运营提供了核心工具。
随着蓝色起源的持续推进,太空数据领域的竞赛愈发激烈,一个以太比特级速率实现全球互联的时代,正逐步成为现实。

一波新的网络攻击正瞄准那些寻找免费软件的用户,把他们的电脑变成不情愿的带宽共享参与者。安恒实验室安全情报中心(ASEC)发布警告称,威胁组织 Larva-25012 正在通过分发伪装成热门文本编辑器 Notepad++ 的恶意软件来实施攻击。
这是一种典型的 “代理劫持(Proxyjacking)” 攻击:攻击者在受害者电脑上悄悄安装软件,盗用其网络带宽来牟利。
该活动主要针对搜索破解版或盗版软件的用户。攻击者将受害者诱骗到 “伪装成提供破解 / 盗版软件下载的虚假网站”。这些网站通常声称自己 “界面友好、资源全面”,提供各种工具的恶意安装包,例如 AutoClicker、SteamCleaner,以及最引人注目的 Notepad++
当用户下载并运行名为 Setup.zip 的文件时,他们得到的远不止一个文本编辑器。“通过 Setup.zip 分发的版本同时包含 ** 正版 Notepad++ 安装程序(Setup.exe)** 和一个名为 TextShaping.dll 的恶意加载器 DLL。”
恶意软件使用 DLL 侧加载(DLL side‑loading) 技术来躲避检测。当受害者启动正版的 Notepad++ 安装程序时,它会无意中从同一文件夹加载恶意的 TextShaping.dll
随后,该 DLL 会在内存中解密一个有效载荷,最终安装 DPLoader(一种下载器木马)。“一旦在 Windows 任务计划程序中注册,DPLoader 就会持久化执行,并从其 C&C 服务器获取指令。”
为了保持隐蔽,恶意软件还会主动篡改系统防御。“脚本会修改 Windows Defender 策略,包括添加排除路径、禁用安全通知,并阻止恶意软件样本提交。”
该活动的最终目的不是勒索或窃取数据,而是牟利。攻击者会安装 代理软件(Proxyware),让受害者的网络连接被 “共享” 出去。
“代理劫持指的是在未经同意的情况下,在受害者机器上安装 Proxyware,从而让攻击者通过盗用受害者的网络带宽来赚钱。”
恶意软件会安装已知的代理软件,例如 InfaticaDigitalPulse。为了伪装得更逼真,Infatica 代理会被注册为名为 “Microsoft Anti‑Malware Tool” 的计划任务,让普通用户误以为它是一个合法的系统进程。
Larva-25012 还在不断升级攻击手段。ASEC 研究人员指出,攻击者 “正在积极更改技术以躲避检测 —— 例如将 Proxyware 注入 Windows 资源管理器进程,或使用基于 Python 的加载器”。

对用户来说,这是一个明确的提醒:

从不明来源下载软件往往伴随着隐藏的代价 —— 这次,是你的网络带宽。

一款新型剪贴板劫持程序正利用 Discord 社区的用户信任,暗中盗取游戏玩家与直播博主的加密货币资产。
此次攻击活动的核心是一款伪装成直播辅助工具或安全工具的恶意 Windows 程序,一经安装便会在后台静默监控用户剪贴板,伺机捕获用户复制的加密货币钱包地址
当受害者将钱包地址粘贴至加密货币交易所、钱包应用或支付输入框时,该恶意软件会将其替换为攻击者控制的地址,在无明显痕迹的情况下完成资金转移。
被安全研究人员标记为RedLineCyber的攻击团伙,将目标锁定在与游戏、博彩及加密货币直播相关的 Discord 服务器。
该团伙会主动与服务器成员建立信任关系,伪装成工具开发者,通过私下渠道发送名为Pro.exepeeek.exe的恶意文件。
他们向受害者谎称,这款工具能在直播过程中协助管理或保护钱包地址,让程序看似具备实用价值,从而降低用户的警惕性。
在这番看似友好的推销背后,实则是一场针对性极强的盗窃行动 —— 受害者只需一次粘贴操作的疏忽,账户内的交易资金就可能被悄悄转空。
CloudSEK 的安全分析师在监控网络犯罪分子活跃的地下社区与 Discord 频道时,发现了这一攻击活动。

在此次人工情报排查工作中,研究人员识别出该团伙伪造的RedLine Solutions虚假身份,并追溯到这款恶意软件的本源:一款由PyInstaller打包的 Python 基可执行程序。

研究人员的分析证实,该程序并非传统的信息窃取类恶意软件,其攻击行为高度聚焦于单一目标:篡改与主流加密货币相关的剪贴板数据

此次攻击的危害性极大,原因在于其精准瞄准了用户注意力最薄弱的操作环节。许多直播博主与高频交易用户在复制粘贴冗长的钱包地址时,并不会逐一核对每一个字符。
该恶意软件运行时无命令与控制通信流量,且仅占用极少的系统资源,因此能在设备中长期潜伏,伺机等待高价值的资金转账操作。
从攻击者预置钱包地址关联的区块链交易记录来看,比特币、以太坊、索拉纳、狗狗币、莱特币及波场等主流加密货币,均已出现资产被盗的相关记录。

感染机制与剪贴板劫持逻辑

受害者运行Pro.exe后,恶意软件会在 Windows 系统的 **% APPDATA%** 目录下创建名为CryptoClipboardGuard的文件夹,并将自身添加至当前用户注册表的开机启动项中。
这一操作能确保恶意软件随系统开机自动运行,在后台持续潜伏且无任何可视窗口
该可执行程序内置了独立的 Python 运行环境与经过混淆处理的字节码,即便目标设备未安装 Python 环境,程序仍能正常运行。
程序启动后会进入高频检测循环,每秒约三次扫描用户的剪贴板内容。
每当剪贴板内容发生变化,恶意软件会通过Base64 编码的正则表达式,对内容进行扫描,匹配各大主流加密货币的钱包地址格式。
一旦检测到有效钱包地址,程序会立即将剪贴板内容替换为该加密货币对应的攻击者预置钱包地址,并将此次替换操作记录在 **% APPDATA%\CryptoClipboardGuard** 目录下的activity.log日志文件中。
由于地址替换发生在复制与粘贴的间隙,大多数受害者直到发现资金转入错误的钱包,才会察觉地址被篡改 —— 而此时,资金转账操作已无法撤销。

互联网系统协会(ISC)已针对 BIND 9 发布高严重性安全公告。BIND 9 是支撑互联网大量 DNS(域名系统)基础设施的核心软件。新发现的漏洞 CVE-2025-13878 允许远程攻击者通过发送单个恶意数据包即可导致 BIND 服务器崩溃,可能引发大规模 ** 拒绝服务(DoS)** 中断。
该漏洞的 CVSS 评分为 7.5,并被标记为 “可远程利用”,意味着攻击者无需本地访问或身份验证,即可从互联网任意位置触发崩溃。
漏洞存在于 BIND 的核心守护进程 named 处理特定类型 DNS 记录的方式中。根据公告,问题由与 BRIDHHIT 记录相关的无效数据结构触发。
公告指出:“畸形的 BRID/HHIT 记录可导致 named 意外终止。”
虽然这些记录类型不像标准 A 或 AAAA 记录那样常见,但解析器无法正确处理其损坏版本,从而在软件中形成一个脆弱点。
该漏洞的影响直接且具有破坏性。攻击者只需发送一个特制查询,即可迫使 DNS 服务器关闭。
公告警告:“攻击者可以通过发送导致记录损坏或恶意的请求,使 named 崩溃。”
此风险适用于所有 BIND 部署场景。ISC 确认:“权威服务器和递归解析器均受此漏洞影响”,没有任何配置能完全避免崩溃风险。
该漏洞由 Marlink Cyber 的 Vlatko Kosturjak 报告。
网络管理员被敦促立即检查其 BIND 版本。受影响的分支如下:
  • BIND 9.18:版本 9.18.40 至 9.18.43
  • BIND 9.20:版本 9.20.13 至 9.20.17
  • BIND 9.21:版本 9.21.12 至 9.21.16
支持的预览版也受到影响。
幸运的是,目前 “尚未发现任何野外活跃利用”。然而,鉴于 BIND 的广泛使用,各组织不应等待,应立即修补。
ISC 建议用户 “升级到与你当前 BIND 9 版本最接近的已修复版本”,具体为:
  • 9.18.44
  • 9.20.18
  • 9.21.17

思科已向全球网络管理员发出紧急警告:其核心通信软件中存在一个严重远程代码执行(RCE)漏洞,目前正被黑客积极利用。该漏洞编号为 CVE-2026-20045,允许未授权攻击者接管受影响设备,并可能将权限提升至 root
该漏洞直击企业通信的核心,影响包括 Cisco Unified Communications Manager(Unified CM)Cisco Unity Connection 在内的重要平台。
虽然该漏洞的 CVSS 基础评分为 8.2(通常归类为 “高”),但思科已将威胁等级提升为 严重(Critical)。厂商解释称,这一调整反映了该漏洞的破坏性潜力。
根据公告:“思科已将此安全公告的安全影响等级(SIR)定为严重,而非评分所示的高。” 原因是:“利用此漏洞可能导致攻击者将权限提升至 root。”
漏洞存在于受影响设备的 Web 管理界面 中,源于对传入流量的输入验证不当。“此漏洞是由于在 HTTP 请求中对用户提供的输入验证不充分造成的。”
攻击者无需登录即可触发漏洞。通过 “向受影响设备的 Web 管理界面发送一系列特制的 HTTP 请求”,对手可以绕过安全控制。
一旦成功进入系统,后果可能是彻底的。“成功利用此漏洞可能允许攻击者获得底层操作系统的用户级访问权限,然后将权限提升至 root。”
该漏洞影响范围广泛,以下产品无论配置如何均受影响:
  • Unified CM(CallManager)
  • Unified CM Session Management Edition(SME)
  • Unified CM IM & Presence Service
  • Unity Connection
  • Webex Calling Dedicated Instance
由于已确认存在野外利用,修补并非可选。思科已为 14 版和 15 版发布软件更新,同时指出 12.5 版用户必须 “迁移到已修复的版本”。
鉴于当前活跃的威胁环境,“思科强烈建议客户立即升级到已修复的软件版本以缓解此漏洞。”