Anthropic, güvenlik açıklarını avlamak için özel olarak tasarlanmış yeni bir yapay zeka modeliyle dünyanın önde gelen yaklaşık 40 teknoloji şirketini donatarak, kurumsal siber savunmada yapay zeka kullanımını artırıyor.
Geri
Anthropic, güvenlik açıklarını avlamak için özel olarak tasarlanmış yeni bir yapay zeka modeliyle dünyanın önde gelen yaklaşık 40 teknoloji şirketini donatarak, kurumsal siber savunmada yapay zeka kullanımını artırıyor.

(P1) Anthropic, 7 Nisan'da yazılım açıklarını belirlemede üstün bir yapay zeka sistemi olan Claude Mythos Preview modelinin sınırlı bir önizlemesini, seçilmiş yaklaşık 40 şirketten oluşan bir gruba duyurdu. Bu grup arasında teknoloji devleri Microsoft, Amazon ve Apple'ın yanı sıra, modeli savunma amaçlı güvenlik çalışmaları için kullanacak olan siber güvenlik liderleri CrowdStrike ve Palo Alto Networks de bulunuyor.
(P2) Bu hamle, yapay zeka kaynaklı saldırılara karşı savunma yapmanın yapay zeka destekli araçlar gerektirdiğine dair artan fikir birliğini yansıtıyor. Google Cloud Güvenlik Ürünleri Başkanı ve Operasyon Direktörü Francis deSouza, konuyla ilgili yakın tarihli bir New York Times röportajında, "Bu, siber ortamda şimdiye kadar gerçekleşen en büyük değişim. Yapay zekaya karşı yapay zeka ile savaşmalısınız" dedi.
(P3) Claude Mythos Preview'un ilk kullanıcı grubu, dünyanın teknoloji altyapısının ve güvenlik mekanizmasının önemli bir kısmını temsil ediyor. Anthropic, Microsoft, Amazon ve Apple gibi firmalara bu aracı sağlayarak, yeni savunma modelini karmaşık saldırganların en çok hedef aldığı ekosistemlerin merkezine yerleştiriyor.
(P4) Bu girişim, hem saldırı hem de savunma için kullanılabilen gelişmiş yapay zekanın çift kullanımlı doğasını vurguluyor. Tehdit aktörleri kötü niyetli amaçlar için yapay zeka hizmetlerini giderek daha fazla suistimal ederken, Mythos gibi özel savunma modellerinin geliştirilmesi güvenliği korumak için kritik hale geliyor ve bu yeni nesil araçlarla donatılmış siber güvenlik firmalarının değerini potansiyel olarak artırıyor.
Mythos'un piyasaya sürülmesi, saldırganların saldırıları düzenlemek için meşru ticari yapay zeka modellerini kötüye kullandığı bir dönemde gerçekleşti. CSO Online'ın yakın tarihli bir raporuna göre, güvenlik araştırmacıları, tehdit aktörlerinin Anthropic'in kendi Claude modellerini siber casusluk için kullandığı ve gizli komuta-kontrol kanalları oluşturmak için OpenAI Assistants API'sini kötüye kullandığı durumları belgeledi. Bu teknikler, kötü niyetli trafiğin normal yapay zeka faaliyeti olarak kamufle edilmesine ve geleneksel güvenlik kontrollerinin atlanmasına olanak tanıyor.
Anthropic'in Mythos stratejisi, savunmacıların saldırganların istismar etmek için yarıştığı aynı türdeki açıkları proaktif olarak bulup düzeltmeleri için amaca yönelik bir araç sağlayarak bu gelişen tehdide doğrudan bir yanıttır. Model, güvenlik araştırmacılarının çalışmalarını otomatikleştirmek ve hızlandırmak için tasarlanmıştır ve sistemleri bilgisayar korsanlarının sızabileceğinden daha hızlı bir şekilde güvence altına almalarını sağlar.
Anthropic'in ilk dağıtımı incelenmiş 40 şirketlik bir listeyle sınırlama kararı, böylesine güçlü bir aracın doğasındaki risklerin altını çiziyor. Güvenlik zayıflıklarını bulmada son derece iyi olan bir yapay zeka, yanlış ellerde bir silaha dönüşebilir. Bu kontrollü sürüm, şirketin kötüye kullanım potansiyelini en aza indirirken gerçek dünya savunma senaryolarındaki performansı hakkında veri toplamasını sağlıyor.
Yatırımcılar için bu gelişme siber güvenlik hisselerini olumlu yönde etkileyebilir. İlk erişim grubunda yer alan CrowdStrike ve Palo Alto Networks gibi şirketler, savunma yeteneklerini geliştirerek platformlarının etkinliğini artırma ve rekabet avantajı yaratma şansına sahip. Piyasa, yapay zekanın güvenlik alanındaki uygulamaları konusunda iyimser bir tutum sergiliyor ve Mythos gibi modellerin başarılı bir şekilde konuşlandırılması, yapay zeka odaklı güvenlik platformlarının eski satıcılardan daha iyi performans göstereceği tezini güçlendirebilir.
Bu makale yalnızca bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.