Hükümet denetiminde önemli bir genişleme olarak, dünyanın en büyük üç yapay zeka geliştiricisi, en gelişmiş modellerinin yayınlanmadan önce güvenlik incelemelerinden geçirilmesini kabul etti.
Geri
Hükümet denetiminde önemli bir genişleme olarak, dünyanın en büyük üç yapay zeka geliştiricisi, en gelişmiş modellerinin yayınlanmadan önce güvenlik incelemelerinden geçirilmesini kabul etti.

Yapay zeka üzerindeki hükümet denetimini önemli ölçüde artıran bir hamleyle Alphabet bünyesindeki Google, Microsoft Corp. ve xAI, gelişmiş yapay zeka modellerini halka sunulmadan önce güvenlik değerlendirmesi için paylaşmayı kabul etti. Bu anlaşma, üç teknoloji devini, halihazırda OpenAI ve Anthropic PBC ile benzer düzenlemelere sahip olan ABD Ticaret Bakanlığı'na bağlı Yapay Zeka Standartları ve İnovasyon Merkezi (CAISI) ile ortaklığa taşıyor.
CAISI direktörü Chris Fall yaptığı açıklamada, "Bağımsız ve titiz ölçüm bilimi, öncü yapay zekayı ve bunun ulusal güvenlik üzerindeki etkilerini anlamak için elzemdir. Genişletilen bu endüstri iş birlikleri, kritik bir anda kamu yararına olan çalışmalarımızı ölçeklendirmemize yardımcı oluyor," dedi.
Kurum, OpenAI ve Anthropic ile yapılan anlaşmaların da Başkan Donald Trump'ın Yapay Zeka Eylem Planı'na uyum sağlamak üzere yeniden müzakere edildiğini belirtti. 2024'ten bu yana merkez, henüz halka açıklanmamış bazı modeller de dahil olmak üzere 40'tan fazla yapay zeka modeli değerlendirmesini tamamladı. Google, Microsoft ve Elon Musk'ın xAI şirketinin dahil edilmesi, yönetimin Anthropic'in Mythos modeli gibi yeni sistemlerin yeteneklerine ilişkin artan endişelerini takip ediyor.
Hükümetin bu genişletilmiş erişimi, giderek güçlenen yapay zekanın yarattığı ulusal güvenlik sorularının doğrudan bir sonucudur. Anthropic'in kendi Mythos modeli üzerinde yaptığı ve kritik yazılım ile altyapılarda binlerce güvenlik açığı bulduğu bildirilen analizi, Trump yönetimi içindeki politika çalışmalarını hızlandırdı. Beyaz Saray, Anthropic'in Mythos'a erişimi genişletme planlarına zaten karşı çıkmıştı ve Savunma Bakanlığı, şirketin tedarik zinciri riski statüsü nedeniyle şirketle yasal bir anlaşmazlık içinde bulunuyor.
Anlaşmalar, 2023 yılında Biden yönetimi altında Yapay Zeka Güvenlik Enstitüsü olarak kurulan ve geçen yıl Trump yönetimi tarafından yeniden yapılandırılan CAISI'ye daha fazla yetki veriyor. Varlığı henüz yasayla resmileşmemiş olsa da Trump'ın Yapay Zeka Eylem Planı, merkezi ulusal güvenlikle ilgili model değerlendirmelerine liderlik etmesi için görevlendiriyor. Bu durum, düzenleyiciler mevcut yasaların yapay zeka sistemlerine nasıl uygulanacağını araştırırken, yasaların yeni şekilde uygulanmasının önünü açabilir.
Yönetimin stratejisi iki yönlü görünüyor. Bir yandan, güçlü yapay zekanın kötüye kullanım potansiyeli nedeniyle daha fazla emniyet ve güvenlik incelemesi için açık bir baskı var. Diğer yandan, Trump yönetimi, yeni modellerin kullanıma sunulmasını hızlandırmak ve ABD'nin Çin karşısında rekabet avantajını korumasını sağlamak için bazı yapay zeka güvenlik bariyerlerini kaldırma hedefini de belirtti. Bu, riskleri azaltmak ile hızlı inovasyonu teşvik etmek arasında hassas bir denge eylemi yaratıyor. Yeni değerlendirme anlaşmaları ve gelecekte beklenen bir başkanlık kararnamesi, yönetimin resmi bir hükümet inceleme süreci oluşturarak bu zorluğun üstesinden gelme çabasını temsil ediyor.
Bu makale sadece bilgilendirme amaçlıdır ve yatırım tavsiyesi niteliği taşımaz.