Anthropic宣布在 Claude Code 平台推出全新AI代码审查工具 Code Review,旨在在漏洞进入代码库之前自动识别潜在问题,从而缓解企业开发流程中因代码审查压力激增带来的效率瓶颈。该功能已于周一上线,并以研究预览形式首先向 Claude for Teams 与 Claude for Enterprise 客户开放。

随着“直觉编码”(vibe coding)模式兴起,开发者越来越多地通过AI工具以自然语言生成大量代码,显著提升开发效率,但也带来了代码漏洞、安全风险以及可读性下降等问题。Anthropic产品负责人Cat Wu在接受TechCrunch采访时表示,随着Claude Code大幅提升代码生成效率,企业内部Pull Request数量迅速增长,传统人工审查流程已难以承载,由此成为软件交付过程中的关键瓶颈。
新推出的Code Review功能通过与GitHub集成,自动分析开发者提交的Pull Request,并直接在代码中标注潜在问题及修复建议。系统重点识别逻辑错误而非代码风格问题,以提升反馈的可执行性。AI会逐步解释其判断依据,包括问题所在、潜在影响以及可行解决方案,并通过颜色区分风险级别:红色表示严重问题,黄色为需关注的潜在风险,紫色则提示与历史错误或既有代码结构相关的问题。
在技术架构上,该系统采用多智能体协作机制,由多个代理并行从不同维度审查代码库,最终由汇总代理整合结果、去重并确定优先级,以实现更高效的自动审查流程。此外,该工具还提供基础安全分析能力,企业可根据内部规范增加自定义检查规则,而Anthropic此前推出的 Claude Code Security 则提供更深入的安全检测。
由于多智能体架构计算成本较高,Code Review采用基于代币的计费模式,费用随代码复杂度变化。Cat Wu预计平均每次审查成本约为15至25美元。她表示,该产品主要面向大型企业客户,例如Uber、Salesforce和埃森哲等,这些公司已在大规模使用Claude Code,并希望借助自动审查工具处理海量Pull Request。
这一产品发布正值Anthropic发展的关键阶段。当天该公司还就美国国防部将其列为供应链风险企业一事提起两项诉讼。与此同时,其企业业务正快速增长,公司称自年初以来企业订阅用户已增长四倍,而Claude Code自推出以来年化收入已超过25亿美元。
随着AI生成代码规模持续扩大,自动化代码审查正逐渐成为企业开发流程的重要基础设施。Anthropic试图通过这一功能帮助企业在提升开发速度的同时降低漏洞风险,并推动AI辅助软件开发向更高可靠性阶段发展。
