尽管 AI 承诺让每个人都成为程序员,但机器生成代码的爆炸式增长正引发一场质量、安全和生产力的隐性危机,反而拖慢了开发者的速度。
返回
尽管 AI 承诺让每个人都成为程序员,但机器生成代码的爆炸式增长正引发一场质量、安全和生产力的隐性危机,反而拖慢了开发者的速度。

尽管 AI 承诺让每个人都成为程序员,但机器生成代码的爆炸式增长正引发一场质量、安全和生产力的隐性危机,反而拖慢了开发者的速度。
AI 编程助手的广泛采用为软件行业带来了一个悖论:虽然每月的代码产量最高可增加 10 倍,但一项新研究显示,使用这些工具的开发者完成任务的时间实际上反而增加了 19%。这种“效率错觉”正在造成大量未经审核的代码积压,引入重大安全风险,并使支撑数字经济的开源社区不堪重负。
“软件开发工厂在某些方面已经失灵了,”AI 代码编辑器 Cursor 的工程、产品与设计主管 Tido Carriero 表示。“我们正试图重新修补这些碎片。”
产量的激增是显而易见的。一家金融服务公司在引入 AI 工具后,其月度代码产量从 2.5 万行飙升至 25 万行,导致积压了 100 万行等待审核的代码。这并非个案;谷歌的一项调查显示,目前 90% 的开发者都在使用 AI 辅助。问题在于,人类审核海量新代码的能力未能跟上步伐,造成了某位高管所称的“诅咒”。
核心问题在于代码生成与代码验证之间的巨大失衡。随着 Anthropic 和 OpenAI 等公司的 AI 工具变成“全自动代码生成机器”,代码量已多到无法管理。安全初创公司 StackHawk 的首席执行官 Joni Klippert 表示:“他们根本无法跟上交付的代码量及其带来的漏洞。”
Meta 首席技术官 Andrew Bosworth 在一份内部备忘录中也表达了同样的观点。他指出,曾经需要数百名工程师的项目现在几十人就能完成,过去需要数月的工作现在几天即可搞定。虽然这被视为积极信号,但这种加速正使组织的质量控制和安全审计功能面临严峻压力。
追求代码交付速度的压力正导致漏洞激增。对使用某 AI 编程平台构建的 1,645 个 Web 应用程序进行的扫描发现,超过 10% 的程序存在严重安全缺陷,甚至可以在没有登录凭据的情况下访问用户数据库、财务信息和 API 密钥。在另一个案例中,一名工程师仅用 47 分钟就从多个 AI 构建的应用程序中提取了个人债务金额和家庭住址。
这种低质量产出的泛滥对开源项目打击尤为沉重。广泛使用的 cURL 项目创始人 Daniel Stenberg 在被海量 AI 生成的虚假报告淹没后,关闭了其漏洞赏金计划,他称之为“对开源项目的 DDoS 攻击”。同样,协作白板初创公司 tldraw 也在由于收到大量来自疑似 AI 机器人的“垃圾”更新后,关闭了外部贡献通道,理由是“对代码库的风险极高”。
最令人惊讶的发现来自模型评估机构 METR 的一项随机对照试验。这项 2025 年的研究发现,16 名资深开源开发者在使用 AI 工具处理实际任务时,耗时反而增加了 19%。
关键在于,开发者本人的感知与事实截然相反。实验前,他们预测 AI 会让他们提速 24%;实验后,他们依然认为自己提速了 20%。这种认知失调凸显了这场危机核心的“效率错觉”。虽然开发者觉得效率更高了,但花费在调试和验证低质量 AI 建议上的时间却导致了净时间损失。2025 年 Stack Overflow 的调查进一步支持了这一观点,开发者对 AI 准确性的信任度同比从 40% 下降到了 29%。
这个问题已演变为结构性问题,代码托管巨头 GitHub 最近推出了允许项目完全屏蔽外部贡献的功能。正如一位 AI 工程师总结的那样,利用 AI 生成代码和错误报告的便利性助长了对维护者和审核者时间的不尊重,导致了 RedMonk 分析师 Kate Holterhoff 所称的“AI 垃圾代码末日”(AI Slopageddon)。
本文仅供参考,不构成投资建议。