[网络研讨会] 保障智能体AI安全:从MCP与工具访问到影子API密钥泛滥
AI智能体已不再仅仅是编写代码,它们正在执行代码。
如今,Copilot、Claude Code和Codex等工具能够在几分钟内端到端地构建、测试和部署软件。这种速度正在重塑工程实践,但同时也造成了一个大多数团队直到出现问题才会发现的安全缺口。
每个智能体工作流的背后,都隐藏着一层鲜少有组织积极防护的体系:机器控制协议(MCPs)。这些系统悄无声息地决定着AI智能体可以运行什么、调用哪些工具、访问哪些API以及触及哪些基础设施。一旦这个控制平面被攻破或配置错误,智能体就不仅仅是犯错——它会以授权身份采取行动。
问问受CVE-2025-6514影响的团队就知道了。一个漏洞就将超过50万开发者使用的可信OAuth代理变成了远程代码执行路径。无需复杂的漏洞利用链,没有喧嚣的数据泄露。只是自动化系统在规模化地执行其被允许执行的操作。这一事件清楚地表明:如果AI智能体能够执行命令,那么它同样能够执行攻击。
本次网络研讨会面向那些希望快速推进却不愿放弃控制权的团队。
本次会议由《智能体AI身份管理》OpenID白皮书作者主讲,将直击安全团队因采用智能体AI而正在继承的核心风险。您将看到MCP服务器在真实环境中如何实际运作、影子API密钥出现在何处、权限如何悄无声息地蔓延,以及当智能体代表您行动时,传统的身份与访问模型为何会失效。
您将了解到:
- MCP服务器是什么,以及为何它们比模型本身更重要
- 恶意或被攻破的MCP如何将自动化转变为攻击面
- 影子API密钥从何而来——以及如何检测和消除它们
- 如何在部署前审计智能体行为并执行策略
- 在不拖慢开发速度的前提下保障智能体AI安全的实用控制措施
智能体AI已经进入您的流水线。唯一的问题是,您能否看清它在做什么,并在其越界时及时阻止。
注册参加实时网络研讨会,在下一次事故替您接管之前,重新掌控您的AI技术栈。
觉得这篇文章有趣?本文来自我们一位重要合作伙伴的供稿。 请关注我们的Google News、Twitter和LinkedIn账号,阅读我们发布的更多独家内容。