İki ay içinde ikinci bir grup, Anthropic'in yüksek riskli yapay zeka modelinin etrafındaki güvenliği aştığını iddia ederek firmanın en güçlü araçlarını koruma yeteneği hakkında soru işaretleri uyandırdı.
Geri
İki ay içinde ikinci bir grup, Anthropic'in yüksek riskli yapay zeka modelinin etrafındaki güvenliği aştığını iddia ederek firmanın en güçlü araçlarını koruma yeteneği hakkında soru işaretleri uyandırdı.

Hacker grubu ShinyHunters, yapay zeka güvenliği lideri Anthropic'in dahili sistemlerini ihlal ettiğini ve henüz yayınlanmamış Claude Mythos modeliyle ilgili verilere eriştiğini iddia ediyor. Doğrulanmamış bu iddia, bir Discord grubunun aynı yüksek riskli modele erişim sağladığı Temmuz ayındaki ayrı bir ihlalin ardından geldi.
Anthropic, ShinyHunters'tan gelen ihlal iddiasını henüz kamuoyuna doğrulamadı. Bir Bloomberg raporuna göre şirket daha önce Temmuz ayındaki olayla ilgili "iddianın farkında olduğunu ve araştırdığını" belirtmişti.
ShinyHunters'ın kullanıcı yönetim panellerinin ve dahili yapay zeka deneylerinin ekran görüntülerini paylaştığı iddia ediliyor. Bu durum, kullanıcıların modelin çevrimiçi konumunu tahmin ettiği ve bir yüklenicinin ayrıcalıklı erişimini kullandığı Temmuz ayındaki ihlali takip ediyor. Anthropic, Claude Mythos'u "her büyük işletim sistemindeki sıfırıncı gün açıklarını belirleme ve ardından bunlardan yararlanma" kapasitesine sahip olarak tanımlamıştı.
Yeni iddia doğrulanırsa tekrarlanan güvenlik hataları, Anthropic'in güven odaklı bir yapay zeka laboratuvarı olarak itibarını ciddi şekilde zedeleyebilir ve Google gibi kurumsal müşteriler ve ortaklar arasındaki güveni sarsabilir. Olaylar, şirketler giderek daha güçlü modeller geliştirmek için yarışırken tüm yapay zeka endüstrisindeki güvenlik protokolleri hakkında kritik soruları gündeme getiriyor.
ShinyHunters'ın iddiası, son haftalarda yetkisiz kullanıcıların Anthropic'in "potansiyel olarak tehlikeli" olarak adlandırdığı bir yapay zekaya iddiaya göre erişim sağladığı ikinci seferi işaret ediyor. Temmuz ayının başlarında, sosyal platform Discord'daki bir grup kullanıcı, gelişmiş bir saldırı yoluyla değil, şirketin adlandırma kurallarına dayanarak çevrimiçi konumunu tahmin ederek Mythos'a erişim sağlamıştı.
Söz konusu önceki ihlal, Anthropic için bir yüklenici olarak ayrıcalıklı erişime sahip olan grubun bir üyesi tarafından desteklenmişti. Kullanıcılar Bloomberg'e modeli zararsız görevler için kullandıklarını söyleseler de, olay önemli güvenlik zayıflıklarını ortaya çıkardı. Markası güvenlik ve sorumlu yapay zeka gelişimi üzerine kurulu bir şirket için, en güçlü modelinin birbiri ardına iki kez ihlal edildiği iddiası, yatırımcılar ve müşteriler için ciddi bir endişe kaynağıdır.
Anthropic, Claude Mythos'u gizli tutmuş ve Project Glasswing adlı bir girişim aracılığıyla yalnızca seçkin bir ortak grubuna erişim hakkı tanımıştı. Şirketin modelin yeteneklerine dair kendi açıklaması — yeni yazılım açıklarını bulup kullanabileceği — onu benzersiz bir risk kategorisine sokuyor. OpenAI ve Google gibi rakipler de güçlü modeller geliştirirken, Anthropic'in kamuoyundaki vurgusu sürekli olarak gelişmiş yapay zekanın potansiyel tehlikelerini sınırlamak üzerine olmuştur.
İddia edilen ihlaller, şirketin kendi operasyonel güvenliğinin yüksek idealli güvenlik ilkeleriyle eşleşmeyebileceğini gösteriyor. ShinyHunters gibi bir grup dahili panellere erişebiliyorsa, bu durum model hırsızlığı veya Anthropic ortaklarından gelen hassas verilerin açığa çıkması olasılığını artırır. Olaylar, yapay zeka modelleri güçlendikçe, onları inşa eden şirketlerin daha değerli hedefler haline geldiğinin sert bir hatırlatıcısıdır.
Bu makale yalnızca bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.