Anthropic Rekabetçi Kalmak İçin Önemli Güvenlik Taahhüdünü İptal Etti
380 milyar dolar değerindeki yapay zeka şirketi Anthropic, Sorumlu Ölçeklendirme Politikası'nın merkezi sütununu resmi olarak terk etti. Şirket Salı günü yayınladığı bir blog yazısında, güvenlik önlemlerinin yeterli olduğunu garanti edememesi durumunda yapay zeka geliştirmeyi durdurma konusundaki 2023 taahhüdünü geri çekti. Bu hamle, şirketi rakiplerinden ayıran 'önce güvenlik' kimliğinden dramatik bir ayrılışı temsil ediyor. Baş Bilim Sorumlusu Jared Kaplan, “rakipler hızla ilerliyorsa” şirketin tek taraflı duraklama taahhütlerinde bulunamayacağını belirterek, ideolojik saflık yerine ticari momentumun öncelikli olduğu stratejik bir değişime işaret etti.
Bu dönüşüm, Anthropic'in yıllık gelirlerinin yılda 10 kat hızla büyüdüğünü bildirmesiyle önemli bir ticari başarının ardından geliyor. Bu karar, 2024 yılında kamu tüzüğünde güvenliğe daha az vurgu yapmak üzere misyonunu güncelleyen OpenAI gibi rakiplerine daha da yaklaştırıyor. Her iki şirketin de yoğun yatırımcı ilgisinden yararlanmayı umarak halka arz için hazırlandığı bildiriliyor. Anthropic'in politika değişikliği, CEO Dario Amodei'nin 2020'de OpenAI'dan ayrılırken eski şirketinin hızı güvenliğe tercih ettiği yönündeki endişelerini dile getirmesiyle belirlenen temel bir prensibi ortadan kaldırıyor.
Pentagon, Cuma Gününe Kadar Süre Vererek Zorla Teknoloji Erişimiyle Tehdit Ediyor
Anthropic'in politika değişikliği, ABD Savunma Bakanlığı ile yaşanan ciddi bir anlaşmazlıkla aynı zamana denk geliyor. Salı günü yapılan gergin bir toplantıda, Savunma Bakanı Pete Hegseth, CEO Dario Amodei'ye bir ültimatom verdi: Cuma gününe kadar orduya Claude AI modeline sınırsız erişim izni verin, aksi takdirde ağır cezalarla karşılaşın. Pentagon, şirketi uyum sağlamaya zorlamak için Soğuk Savaş dönemi yasası olan Savunma Üretim Yasası'nı devreye sokmakla tehdit etti. Ayrıca, Anthropic'i "tedarik zinciri riski" ilan edebileceği konusunda uyardı; bu hamle, sektördeki sözleşmelerini karmaşık hale getirecektir.
Çatışma, Pentagon'un yapay zekayı "tüm yasal amaçlar" için kullanma talebinin, Anthropic'in teknolojisinin otonom silahlar veya toplu gözetim için kullanılmasına karşı belirttiği kırmızı çizgilerle çelişmesinden kaynaklanıyor. Tehditlere rağmen Pentagon, en hassas işleri için kullanılan Claude modeline olan bağımlılığını kabul ediyor. Bir Savunma yetkilisi, "Bu insanlarla hala konuşmamızın tek nedeni, onlara şimdi ihtiyacımız olmasıdır" dedi. Bu dinamik, son tarih yaklaşırken Anthropic'i tehlikeli ancak güçlü bir müzakere konumuna sokuyor.