Pentagon, 200 Milyon Dolarlık Sözleşme Anlaşmazlığı Nedeniyle Anthropic'i Kara Listeye Aldı
17 Mart 2026 tarihinde ABD hükümeti, yapay zeka geliştiricisi Anthropic'i "kabul edilemez" bir ulusal güvenlik ve tedarik zinciri riski olarak belirledi. Bu eylem, 200 milyon dolarlık bir savunma sözleşmesi üzerindeki çıkmazdan kaynaklanmıştır. Anthropic'in teknolojisindeki etik kısıtlamaları kaldırmayı reddetmesi ve yapay zeka modellerinin otonom silah konuşlandırması veya kitlesel iç gözetim için kullanılmaması konusunda ısrar etmesi üzerine çatışma alevlenmiştir. Bir mahkeme başvurusunda, Trump yönetimi bu kararı, Anthropic'in ifade özgürlüğü haklarının ihlali yerine, bir sözleşme müzakeresi ve ulusal güvenlik meselesi olarak çerçeveleyerek savundu. Genellikle yabancı düşmanlar için ayrılan bu atama, Anthropic'i belirli savunma sözleşmelerinden men etmekte olup, şirket tarafından "emsalsiz ve yasa dışı" olarak nitelendirilerek itiraz edilmiştir.
Risk Etiketi Milyarlarca Dolarlık Sözleşmeyi Tehdit Ederken Anthropic Dava Açtı
Buna karşılık Anthropic, Pentagon'un kara listeye alma eylemini engellemek amacıyla ABD hükümetine karşı birden fazla dava açmıştır. 380 milyar dolarlık bir değerlemeye ve yıllık 14 milyar dolarlık gelire sahip olan şirket, bu atamanın misilleme amaçlı ve usulen hatalı olduğunu savunmaktadır. Anthropic, "tedarik zinciri riski" etiketinin hükümet ve ticari müşterileri için önemli belirsizlik yaratması nedeniyle bu hamlenin milyarlarca dolarlık sözleşme kaybına neden olabileceğini iddia etmektedir. Piyasadaki etkileri şimdiden hissedilmekte olup, hukuk teknolojisi sektöründeki müşteriler, Anthropic'in modellerine olan bağımlılıklarını yüksek öncelikli olarak gözden geçirmektedir. Bu belirsizlik, şirketleri OpenAI ve Google gibi rakiplerden alternatif yapay zeka modellerini değerlendirmeye zorlamakta, bu da Anthropic'in Claude'unu özel görevler için üstün model olarak görenler için performans düşüşüne yol açabilmektedir.
Yapay Zeka Etiği Çatışması Yaygın Sektör Belirsizliği Yaratıyor
Bu çatışma, önde gelen yapay zeka geliştiricileri ile hükümet kurumları arasında yapay zekanın askeri uygulamaları konusunda artan gerilimi vurgulamaktadır. Anthropic sağlam bir etik duruş sergilerken, rakibi OpenAI'nin başlangıçta Anthropic'in pozisyonunu kabul ettikten sonra Pentagon ile kendi sözleşmesini müzakere ettiği bildirilmektedir. Bu durum, bu temel modeller üzerine hizmetler inşa eden şirketleri etkileyerek tüm yapay zeka ekosisteminde öngörülemezlik yaratmaktadır.
Hükümet önde gelen bir Amerikan yapay zeka şirketini ulusal güvenlik riski olarak belirlediğinde, bu belirsizlik sadece o alanda kalmaz, tüm ekosisteme yayılır.
— August CEO'su Thomas Bueler-Faudree.
Devam eden yasal mücadeleye rağmen, bazı sektör içindeki kişiler iyimserliğini korumakta ve bu anlaşmazlığın geçici olduğunu tahmin etmektedir. Tarafların eninde sonunda birlikte çalışmanın bir yolunu bulacağına inanmakta ve teknoloji firmalarının geçmişte hükümeti başarıyla dava edip daha sonra kilit ortak haline geldiği emsalleri örnek göstermektedirler.