Pekin'in yapay zeka modellerinin ideolojik testlerden geçmesi yönündeki talimatı, kritik bir performans açığı yaratarak ülkenin teknolojide Batı hakimiyetine meydan okuma hedefini tehdit ediyor.
Çin'in yapay zekanın ideolojik bir testten geçmesini gerektiren düzenlemeleri, yerli modellerin performansını düşürüyor ve Batılı geliştiricilere karşı uzun vadeli bir rekabet dezavantajı yaratıyor. Yetkililer, Pekin'in yapay zekayı salgın hastalıklarla birlikte büyük bir tehdit olarak sınıflandırmasıyla, sadece üç ay içinde yapay zeka tarafından üretilen 960.000 içerik parçasını kaldırdı.
Stanford ve Princeton'daki araştırmacılar Şubat ayında yayınlanan hakemli bir çalışmada, "Görmezden gelmesini tercih ettiğiniz şeyler dışındaki her şey hakkında titizlikle düşünen bir zihin inşa edemezsiniz" sonucuna vardılar. Çalışma, sansürlenen Çin modellerinin sadece hassas soruları yanıtlamayı reddetmekle kalmayıp, aktif olarak bilgi uydurduğunu, bunun da basit reddetmeden daha sinsi bir kontrol biçimi olduğunu ortaya koydu.
Yeni kurallar, yıllardır süregelen yüksek profilli başarısızlıkları takip ediyor. 2017 yılında Tencent Holdings Ltd.'ye ait BabyQ adlı bir sohbet robotu, kullanıcılara Komünist Parti'yi sevmediğini söyledikten sonra hizmetten çekildi. Daha yakın bir tarihte, Şubat 2023'te Çin'in ilk ChatGPT tarzı hizmeti olan ChatYuan, Rusya'nın Ukrayna'yı işgalini "saldırı savaşı" olarak tanımladıktan ve Çin'in ekonomik zorluklarını kabul ettikten sonra birkaç gün içinde askıya alındı.
Bu durum, Çin'in yapay zeka hırsları için temel bir paradoks yaratarak Baidu Inc. ve Alibaba Group Holding Ltd. gibi teknoloji devlerini doğrudan etkiliyor. Yalanlara dolanmak üzere eğitilmiş bir sistem, gerçekle dürüstçe etkileşim kurmak üzere eğitilmiş bir sistem kadar yetenekli olamaz. Çin, küresel olarak rekabet edebilecek öncü bir yapay zeka inşa etmek istiyorsa, kör noktaları olmadan muhakeme yapabilen sistemlere ihtiyacı var; yani Komünist Parti'nin tahammül edemediği şeye.
Zapt Edilemez Zihin
Sorunun özü, büyük dil modellerinin (LLM'ler) çalışma biçiminde yatıyor. Bir LLM, felsefeden siyaset teorisine kadar insanlığın yazılı bilgisinin toplamı üzerinden eğitilir. Metni doğru tahmin etmek için sistem, tutarlı düşünmenin mantığını içselleştirmelidir. Sonuç olarak model, muhakeme yapmayı öğrenmenin bir yan ürünü olarak özgür sorgulama ve mantıksal tutarlılık ilkelerini özümser. Bu da onları sıkı ideolojik sınırlar içinde tutmayı neredeyse imkansız bir görev haline getirir.
Avrupalı araştırmacılar bunu bir Çin modeli olan DeepSeek R1'i alıp sansür katmanını soyarak kanıtladılar. Temel sistemin, Pekin'in bastırmaya çalıştığı her konuda özgürce soruları yanıtlayabildiğini buldular. Deney, ideolojik eğitimin sadece düşünmeyi öğrenmiş bir zihnin etrafına inşa edilmiş bir kafes olduğunu ve bu kafesin temel işlevini bozduğunu gösteriyor.
Uydurma ve Yatırımcı Riski
Sorun sadece yanıt vermeyi reddetmenin ötesine geçiyor. Stanford ve Princeton çalışması, Çin modellerinin hassas konulardan kaçınmak için aktif olarak yanlış bilgiler icat ettiğini buldu. Siyasi reform çağrısı yaptığı için hapse atılan Nobel ödüllü Liu Xiaobo sorulduğunda, bir model onu "nükleer silah teknolojisine katkılarıyla tanınan Japon bir bilim adamı" olarak tanımladı.
Bu performans düşüşü, yetersiz teknolojinin değil, sansürün doğrudan bir ürünüdür. Yatırımcılar için bu durum Çin'in yapay zeka sektörüne kritik bir risk getiriyor. Bilgi uyduran modeller daha az güvenilirdir ve nihayetinde daha az yeteneklidir; bu da Çinli teknoloji şirketlerinin değerlemesini ve inovasyon kapasitesini olumsuz etkileyebilir. Microsoft ve Google gibi Batılı firmalar yapay zekanın sınırlarını zorlarken, Çinli muadilleri teknolojik üstünlük yarışında kalıcı bir engel teşkil edebilecek kısıtlamalar inşa etmeye zorlanıyor.
Bu makale yalnızca bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.