Mặc dù AI hứa hẹn biến mọi người thành lập trình viên, nhưng sự bùng nổ của mã do máy tạo ra đang tạo ra một cuộc khủng hoảng tiềm ẩn về chất lượng, bảo mật và năng suất, làm chậm tốc độ làm việc của các nhà phát triển.
Quay lại
Mặc dù AI hứa hẹn biến mọi người thành lập trình viên, nhưng sự bùng nổ của mã do máy tạo ra đang tạo ra một cuộc khủng hoảng tiềm ẩn về chất lượng, bảo mật và năng suất, làm chậm tốc độ làm việc của các nhà phát triển.

Mặc dù AI hứa hẹn biến mọi người thành lập trình viên, nhưng sự bùng nổ của mã do máy tạo ra đang tạo ra một cuộc khủng hoảng tiềm ẩn về chất lượng, bảo mật và năng suất, làm chậm tốc độ làm việc của các nhà phát triển.
Việc áp dụng rộng rãi các trợ lý lập trình AI đã tạo ra một nghịch lý cho ngành phần mềm: trong khi sản lượng mã hàng tháng có thể tăng tới 10 lần, một nghiên cứu mới cho thấy các nhà phát triển sử dụng các công cụ này thực tế có thể mất thêm 19% thời gian để hoàn thành nhiệm vụ. "Ảo tưởng về hiệu quả" này đang tạo ra sự tồn đọng khổng lồ các mã chưa được kiểm duyệt, gây ra rủi ro bảo mật đáng kể và làm quá tải các cộng đồng nguồn mở vốn là nền tảng của nền kinh tế số.
"Nhà máy phát triển phần mềm theo một cách nào đó đã bị hỏng," Tido Carriero, giám đốc kỹ thuật, sản phẩm và thiết kế tại trình chỉnh sửa mã AI Cursor cho biết. "Chúng tôi đang cố gắng lắp ghép những mảnh vỡ này lại với nhau."
Sự gia tăng về khối lượng là rất rõ rệt. Một công ty dịch vụ tài chính đã chứng kiến sản lượng mã hàng tháng tăng từ 25.000 dòng lên 250.000 dòng sau khi đưa vào công cụ AI, dẫn đến tình trạng tồn đọng một triệu dòng mã chờ kiểm duyệt. Đây không phải là trường hợp cá biệt; một cuộc khảo sát của Google cho thấy 90% lập trình viên hiện đang sử dụng sự hỗ trợ của AI. Vấn đề là khả năng của con người trong việc kiểm duyệt dòng lũ mã mới này không theo kịp, tạo ra cái mà một giám đốc điều hành gọi là "lời nguyền".
Vấn đề cốt lõi là sự mất cân bằng nghiêm trọng giữa việc tạo mã và xác minh mã. Với các công cụ AI từ các công ty như Anthropic và OpenAI trở thành "máy tạo mã tự động hoàn toàn", khối lượng mã trở nên không thể kiểm soát. "Họ đơn giản là không thể theo kịp khối lượng mã được tung ra và các lỗ hổng đi kèm với nó," Joni Klippert, CEO của startup bảo mật StackHawk cho biết.
Tâm lý này cũng được lặp lại trong một bản ghi nhớ nội bộ tại Meta, nơi CTO Andrew Bosworth lưu ý rằng các dự án từng cần hàng trăm kỹ sư giờ đây có thể được thực hiện bởi hàng chục người, và công việc từng mất nhiều tháng nay hoàn thành trong vài ngày. Mặc dù được coi là một điểm tích cực, sự tăng tốc này đang gây áp lực lên các chức năng kiểm soát chất lượng và kiểm toán bảo mật của các tổ chức.
Áp lực phải tung ra mã nhanh hơn đang dẫn đến sự gia tăng các lỗ hổng. Một cuộc quét 1.645 ứng dụng web được xây dựng bằng một nền tảng lập trình AI cho thấy hơn 10% có lỗi bảo mật nghiêm trọng, cho phép truy cập vào cơ sở dữ liệu người dùng, thông tin tài chính và khóa API mà không cần thông tin đăng nhập. Trong một trường hợp khác, một kỹ sư đã trích xuất được số nợ cá nhân và địa chỉ nhà từ nhiều ứng dụng do AI xây dựng chỉ trong 47 phút.
Dòng thác đầu ra chất lượng thấp này đang tấn công các dự án nguồn mở một cách đặc biệt nghiêm trọng. Daniel Stenberg, người sáng lập dự án cURL được sử dụng rộng rãi, đã đóng chương trình săn tiền thưởng lỗi của mình sau khi bị tràn ngập bởi các báo cáo giả do AI tạo ra, điều mà ông gọi là một cuộc "tấn công DDoS vào nguồn mở". Tương tự, tldraw, một startup bảng trắng kỹ thuật số, đã đóng kênh đóng góp bên ngoài sau khi bị ngập trong các bản cập nhật "rác" từ những thứ mà người sáng lập nghi ngờ là bot AI, với lý do "rủi ro rất cao đối với cơ sở mã".
Phát hiện đáng ngạc nhiên nhất có lẽ đến từ một thử nghiệm ngẫu nhiên có đối chứng của METR, một tổ chức đánh giá mô hình. Nghiên cứu năm 2025 cho thấy 16 nhà phát triển nguồn mở cấp cao đã mất thêm 19% thời gian để hoàn thành các nhiệm vụ thực tế khi sử dụng các công cụ AI.
Điều quan trọng là chính các nhà phát triển lại nhận thức ngược lại. Trước cuộc thử nghiệm, họ dự đoán AI sẽ giúp họ nhanh hơn 24%, và sau cuộc thử nghiệm, họ vẫn tin rằng mình đã nhanh hơn 20%. Sự bất hòa về nhận thức này làm nổi bật "ảo tưởng về hiệu quả" ở trung tâm của cuộc khủng hoảng. Trong khi các nhà phát triển cảm thấy năng suất hơn, thời gian dành cho việc sửa lỗi và xác minh các đề xuất AI chất lượng thấp dẫn đến việc mất thời gian thực tế. Điều này được hỗ trợ thêm bởi một cuộc khảo sát của Stack Overflow năm 2025, nơi sự tin tưởng của lập trình viên vào độ chính xác của AI đã giảm từ 40% xuống 29% so với cùng kỳ năm ngoái.
Vấn đề đã trở nên mang tính cấu trúc đến mức gã khổng lồ lưu trữ mã GitHub gần đây đã giới thiệu các tính năng cho phép các dự án chặn hoàn toàn các đóng góp từ bên ngoài. Như một kỹ sư AI đã tóm tắt, sự dễ dàng trong việc tạo mã và báo cáo lỗi bằng AI khuyến khích sự thiếu tôn trọng đối với thời gian của những người duy trì và kiểm duyệt, dẫn đến cái mà nhà phân tích Kate Holterhoff của RedMonk gọi là "AI Slopageddon" (Thảm họa rác AI).
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.