Yapay zeka herkesi birer programcı yapmayı vaat etse de, makine tarafından üretilen koddaki patlama; kalite, güvenlik ve üretkenlik konularında yazılımcıları yavaşlatan gizli bir kriz yaratıyor.
Geri
Yapay zeka herkesi birer programcı yapmayı vaat etse de, makine tarafından üretilen koddaki patlama; kalite, güvenlik ve üretkenlik konularında yazılımcıları yavaşlatan gizli bir kriz yaratıyor.

Yapay zeka herkesi birer programcı yapmayı vaat etse de, makine tarafından üretilen koddaki patlama; kalite, güvenlik ve üretkenlik konularında yazılımcıları yavaşlatan gizli bir kriz yaratıyor.
Yapay zeka kodlama asistanlarının yaygın olarak benimsenmesi yazılım endüstrisi için bir paradoks yarattı: Aylık kod çıktısı 10 kat kadar artabilirken, yeni bir çalışma bu araçları kullanan yazılımcıların görevleri tamamlamasının aslında yüzde 19 daha uzun sürebildiğini gösteriyor. Bu "verimlilik illüzyonu", incelenmemiş kodlardan oluşan devasa bir birikim yaratıyor, önemli güvenlik risklerine yol açıyor ve dijital ekonominin temelini oluşturan açık kaynak topluluklarını felce uğratıyor.
Yapay zeka kod düzenleyicisi Cursor'un mühendislik, ürün ve tasarım müdürü Tido Carriero, "Yazılım geliştirme fabrikası bir bakıma bozuldu" dedi. "Bu parçaları tekrar bir araya getirmeye çalışıyoruz."
Hacimdeki artış çarpıcı boyutta. Bir finansal hizmetler firması, yapay zeka aracını kullanmaya başladıktan sonra aylık kod üretiminin 25.000 satırdan 250.000 satıra çıktığını ve sonuçta inceleme bekleyen bir milyon satırlık kod biriktiğini gördü. Bu münferit bir vaka değil; bir Google anketi, yazılımcıların yüzde 90'ının artık yapay zeka desteği kullandığını gösterdi. Sorun şu ki, bu yeni kod selini inceleyecek insan kapasitesi aynı hıza yetişemedi ve bir yöneticinin "lanet" olarak adlandırdığı durumu yarattı.
Temel sorun, kod üretimi ile kod doğrulama arasındaki devasa dengesizliktir. Anthropic ve OpenAI gibi firmaların yapay zeka araçlarının "tam otomatik kod üretim makinelerine" dönüşmesiyle, hacim yönetilemez hale geldi. Güvenlik girişimi StackHawk'ın CEO'su Joni Klippert, "Gönderilen kod hacmine ve beraberinde gelen güvenlik açıklarına yetişemiyorlar" dedi.
Bu görüş, Meta CTO'su Andrew Bosworth'un dahili bir notunda da yankı buldu; Bosworth, bir zamanlar yüzlerce mühendis gerektiren projelerin artık onlarca kişiyle yapılabildiğini ve aylar süren işlerin günler içinde bittiğini belirtti. Olumlu bir gelişme gibi sunulsa da bu hızlanma, kuruluşların kalite kontrol ve güvenlik denetimi işlevlerini zorluyor.
Kodu daha hızlı gönderme baskısı, güvenlik açıklarında artışa neden oluyor. Bir yapay zeka kodlama platformuyla oluşturulan 1.645 web uygulamasının taranması, yüzde 10'undan fazlasının ciddi güvenlik kusurlarına sahip olduğunu ve giriş bilgileri olmadan kullanıcı veritabanlarına, finansal bilgilere ve API anahtarlarına erişime izin verdiğini ortaya koydu. Başka bir örnekte, bir mühendis sadece 47 dakika içinde birden fazla yapay zeka ile oluşturulmuş uygulamadan kişisel borç miktarlarını ve ev adreslerini ele geçirdi.
Bu düşük kaliteli çıktı seli, özellikle açık kaynaklı projeleri sert bir şekilde vuruyor. Yaygın olarak kullanılan cURL projesinin kurucusu Daniel Stenberg, yapay zeka tarafından üretilen yanlış raporların istilasına uğradıktan sonra hata ödül programını kapattı ve bu durumu "açık kaynağa yönelik bir DDoS saldırısı" olarak nitelendirdi. Benzer şekilde, dijital beyaz tahta girişimi tldraw, yapay zeka botu olduğundan şüphelendiği kaynaklardan gelen "çöp" güncellemelerle dolup taştıktan sonra dış katkı kanalını kapattı ve gerekçe olarak "kod tabanına yönelik çok yüksek risk" gösterdi.
Belki de en şaşırtıcı bulgu, bir model değerlendirme kuruluşu olan METR'in randomize kontrollü bir deneyinden geldi. 2025 tarihli çalışma, 16 kıdemli açık kaynak yazılımcısının yapay zeka araçlarını kullandıklarında gerçek dünya görevlerini tamamlamalarının yüzde 19 daha uzun sürdüğünü buldu.
İşin kritik noktası, yazılımcıların kendilerinin tam tersini algılamasıydı. Deneyden önce yapay zekanın kendilerini yüzde 24 hızlandıracağını tahmin ediyorlardı ve deneyden sonra hala yüzde 20 daha hızlı olduklarına inanıyorlardı. Bu bilişsel çelişki, krizin merkezindeki "verimlilik illüzyonunu" vurguluyor. Yazılımcılar kendilerini daha üretken hissederken, düşük kaliteli yapay zeka önerilerini ayıklamak ve doğrulamak için harcanan zaman net bir zaman kaybına neden oluyor. Bu durum, yazılımcıların yapay zeka doğruluğuna olan güveninin geçen yıla göre yüzde 40'tan yüzde 29'a düştüğü 2025 Stack Overflow anketiyle de destekleniyor.
Sorun o kadar yapısal hale geldi ki, kod barındırma devi GitHub kısa süre önce projelerin dış katkıları tamamen engellemesine olanak tanıyan özellikler sundu. Bir yapay zeka mühendisinin özetlediği gibi, yapay zeka ile kod ve hata raporu üretme kolaylığı, sürdürücülerin ve incelemecilerin zamanına saygısızlığı teşvik ederek RedMonk analisti Kate Holterhoff'un "AI Slopageddon" (Yapay Zeka Çöp Kıyameti) dediği duruma yol açıyor.
Bu makale yalnızca bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.