Anthropic发布代码审查工具,以检查大量人工智能生成的代码

TechCrunch
Anthropic发布了Code Review,这是一种与Claude Code集成的AI工具,旨在有效地审查不断增加的人工智能生成的代码并识别潜在的错误。

内容摘要

Anthropic发布了Code Review,这是一种新的AI驱动工具,旨在解决由AI工具(如Claude Code)生成的大量代码的审查挑战。该工具与GitHub集成,自动分析拉取请求,为开发人员提供有关潜在逻辑错误、安全漏洞和建议修复的详细反馈。Code Review利用多代理架构从多个角度检查代码,并根据严重程度(红色、黄色、紫色)对问题进行优先级排序。虽然资源密集且基于令牌定价(估计每次审查费用为15-25美元),但Anthropic认为Code Review对于利用AI进行代码生成的企业来说至关重要,能够加快开发周期并减少错误。此发布正值Anthropic面临对其被指定为供应链风险的法律挑战,并且其企业业务持续增长,Claude Code的收入已超过25亿美元。

(来源:TechCrunch)