Anthropic 近期发布了具备自动漏洞扫描能力的 AI 模型以及 Claude 托管代理(Managed Agents),人工智能正从“对话框里的助手”演变为“具备执行力的代理”。

 

这一跨越式进展在极大提升生产力的同时,也引发了全球网络安全专家与架构师的深思:当 AI 能够自主寻找漏洞并跨环境执行任务时,现有的云架构与防御体系是否已经过时?

 

业内一些观点认为,AI Agent 的兴起正在强行驱动云计算从“中心化”向“分布式推理”转型,而安全防御也必须从“补丁模式”转向“实时拦截模式”。

 

Akamai CEO 兼联合创始人 Tom Leighton 博士表示:“AI 安全威胁使得安全防御比以往任何时候都更加必要。”

 

Tom Leighton 博士于 1998 年与他人共同创立了 Akamai Technologies,并在此后 14 年的时间里担任 Akamai 的首席科学家。2013 年,Tom Leighton 博士开始担任首席执行官一职。在 Leighton 博士的领导下,Akamai 从最初的内容交付网络(CDN)公司发展成为一家致力于支持并保护在线商业活动的网络安全和云计算公司。在他担任 CEO 期间,Akamai 的营收增长两倍,从 2012 年的不到 14 亿美元增至 2025 年的 42 亿美元,而每股收益亦增长近两倍。同期,Akamai 安全业务的年收入从不到 2500 万美元增长到 22 亿美元,成为公司主要的收入来源。

 

作为网络应用程序和网络安全算法方面的重要权威之一,Leighton 博士通过应用数学和分布式计算,找到了消除 Web 拥塞的解决方案。

AI Agent 的崛起:为什么中心化算力不再是唯一解?

Anthropic 发布的 Claude 托管代理展示了一个清晰的趋势:AI 正在拥有“手”和“脚”。这类代理不再仅仅输出文字,而是能够自主调用 API、操作数据库、执行复杂的跨平台任务。

 

在 AI 代理的架构中,核心大模型充当“大脑”,而执行环境则是“手”。这种设计带来了一个迫切的硬件需求:如果数以亿计的代理任务全部回传到位于极少数地区的中心化数据中心进行处理,网络延迟将成为 AI 效能的杀手。

 

例如,一个需要执行 50 个连续步骤的 AI 工作流,如果每一步都产生 100 毫秒的往返延迟,累积的响应时间将直接导致代理任务失败或用户体验崩溃。

 

为了支持这些“自主行动”的 AI,业界正迫切需要一个全新的、分布式的推理层。

 

  • 数据主权与合规:AI 代理在处理财务或医疗数据时,数据往往被限制在特定地理范围内。

  • 成本压力:随着 Anthropic 等模型供应商的 Token 支出规模化(部分企业年支出已达数百万美元),通过分布式边缘计算来分担中心化 GPU 的压力,已成为优化 ROI 的核心手段。

 

在这种背景下,具备全球分布式节点的计算平台——如能够提供从中心化 GPU 集群到边缘计算连续谱系的架构——正变得比以往任何时候都更加必要。这种架构能确保 AI 代理在离用户最近的地方执行指令,兼顾速度与安全。

自动化“黑客”模型:传统补丁防御的终结?

如果说 AI 代理是生产力的飞跃,那么 Anthropic 发布的可自动发现漏洞的 AI 模型,则给网络安全敲响了警钟。

 

在传统安全领域,从漏洞被公开(N-day)到被大规模利用,通常有一段缓冲时间供管理员修补。然而,AI 模型的介入让漏洞扫描和利用实现了秒级自动化。

 

  • 效率对比:人工渗透测试可能需要数周,而经过微调的 AI 模型可以在数小时内扫描数万行代码并精准定位逻辑漏洞。

  • 威胁升级:这极大地缩短了“空窗期”,使得传统的、依赖周期性打补丁的被动防御模式在 AI 攻击者面前近乎失效。

 

Akamai 北亚区技术总监刘烨指出,面对大规模、自动化的 AI 攻击,安全战略必须向“运行时保护”(Runtime Protection)转变。

 

这意味着防御方不再仅仅关注代码本身是否存在漏洞,而是关注攻击者的行为模式。无论漏洞是否已知,实时拦截能力(如 API 安全管理、高级爬虫检测)必须在攻击流量抵达服务器之前就完成判断。

 

此外,随着 AI 技术栈的重心从“模型训练”转向“推理执行”与“应用防御”,云基础设施供应商的角色正在发生微妙变化。

 

AI 攻击的特征是高频、多变。防御方唯一的胜算在于是否拥有足够的“样本规模”。拥有全球网络视角的平台,能够通过每秒数以亿计的请求数据实时训练其防御算法。正如 Akamai CEO Tom Leighton 所言,人工智能带来的安全威胁,反而让具备全球分布能力的计算与安全平台变得更加不可或缺。

标签: none

添加新评论