Anthropic 为Claude Code推出了新的Code Review功能,新增了一个基于智能体的拉取请求(pull request)审查系统,可由多个 AI 审查器协同分析代码变更。该功能目前以研究预览形式向 Team 和 Enterprise 用户开放。

 

该系统会在拉取请求创建后自动运行,并调度多个智能体并行检查变更。Anthropic 表示,这些智能体会查找潜在的缺陷,并验证其发现以降低误报,按严重程度对问题排序,随后在拉取请求中发布汇总审查意见和行内评论。

 

Anthropic 称,分配的智能体数量会随拉取请求规模和复杂度动态调整。规模更大或更复杂的变更会得到更深入的分析,而小型变更则采用更轻量的审查流程。该公司表示平均审查时间约为 20 分钟。

 

Anthropic 表示,其内部已经在过去数月中将该系统应用于大多数自有拉取请求。据该公司声称,采用该系统后,包含实质性审查意见的拉取请求比例从 16%提升至 54%。在变更超过 1000 行的拉取请求中,84%发现了问题,平均识别出了 7.5 个问题;而在少于 50 行的拉取请求中,31%发现了问题,平均为 0.5 个问题。

 

Anthropic 表示,在内部使用过程中,被工程师标记为错误的发现不到 1%。公司强调,该工具旨在辅助而非替代人工审查者,并且不会自动批准拉取请求。

 

针对 Anthropic 发布 Code Review 的消息,社区反应整体较为积极。开发者认为,该公司宣称的分析深度与多智能体方案,是与轻量级 AI 审查工具的关键差异。也有评论者指出,定价可能会限制中小团队采用;另一些人则质疑其宣称的单次审查约 20 分钟、每个拉取请求成本 15–25 美元,是否适用于高吞吐的工程流程。

 

AI 研究员Nir Zabari评论说:

表面上听起来不错,但它并没有披露任何技术细节(例如每个并行的智能体具体关注什么),也没有解释除了成本 15–25 美元之外,它为何优于其他工具(按当前 Opus 定价,大致可理解为约 300 万 Token)。换句话说,这类功能值得开源……

 

与此同时,用户@rohini发帖称:

Claude 在写代码,同时又由 Claude 来审代码?这甚至达不到最基本的安全标准。

 

这一发布让 Anthropic 更直接地进入 AI 代码审查市场。目前该市场中,像GitHub的Copilot代码审查功能以及CodeRabbit等工具,已经提供自动化拉取请求分析能力。Anthropic 的差异化点在于其多智能体审查架构,以及强调更深入、相对更慢的分析流程,而非轻量化快速审查。

 

查看英文原文:Anthropic Introduces Agent-Based Code Review for Claude Code

标签: none

添加新评论