Google Pazartesi günü yaptığı açıklamada, yapay zeka ile geliştirildiğine inandığı ilk sıfırıncı gün (zero-day) saldırısını kullanan bir siber suç operasyonunu engellediğini bildirdi. Bu durum, güvenlik uzmanlarının siber tehdit ortamının işletmeler için dramatik bir şekilde tırmanacağı yönündeki uyarılarında bir dönüm noktası olarak değerlendiriliyor.
Google'ın Mandiant tehdit istihbaratı biriminin baş analisti John Hultquist bir raporda, "İşte geldi," dedi. "Yapay zeka odaklı güvenlik açığı ve istismar dönemi çoktan başladı. Yapay zeka büyük bir avantaj sağlayacak çünkü saldırganlar çok daha hızlı hareket edebilecekler."
Bir Python betiği olarak uygulanan saldırı, popüler bir açık kaynaklı web yönetim aracındaki daha önce bilinmeyen bir açığı hedef alarak saldırganın iki faktörlü kimlik doğrulamayı (2FA) atlatmasına olanak tanıyordu. Belirli bir araç veya tehdit aktörü ismi verilmezken, Google saldırı kodunu oluşturmak için bir yapay zeka modeli kullanıldığına dair "yüksek güvene" sahip olduğunu belirtti.
Bu keşif, siber saldırılarda yapay zeka kullanımının teorik bir tehlikeden doğrulanmış bir gerçeğe dönüştüğü kritik bir değişimi işaret ediyor. Yapay zeka modelleri, yazılım açıklarını keşfetmek ve silah haline getirmek için gereken süreyi ve beceriyi büyük ölçüde azaltabildiğinden, bu gelişme tüm endüstrilerde güvenlik duruşlarının kapsamlı bir şekilde yeniden değerlendirilmesini zorunlu kılabilir.
Kötü Amaçlı Kodlardaki Yapay Zeka Belirtileri
Google'ın saldırının yapay zeka kaynaklı olduğuna dair güveni bizzat kodun kendisinden kaynaklanıyor. Şirket, Python betiğinin çok sayıda eğitici doküman dizisi (docstrings), "halüsinasyon" ürünü bir CVSS puanı ve büyük dil modellerini (LLM) eğitmek için kullanılan verilere özgü ders kitabı formatında yapılandırılmış bir biçim içerdiğini kaydetti.
Güvenlik açığının kendisi, sabit kodlanmış bir güven varsayımından kaynaklanan üst düzey bir anlamsal mantık hatasıydı; bu tür hatalar, geniş kod tabanları üzerinde eğitilen LLM'lerin tanımlama konusunda özellikle yetenekli olduğu bir hata türüdür.
Devlet Destekli Aktörler Yapay Zekayı Benimsiyor
Rapor ayrıca yapay zekayı sadece finansal motivasyonlu siber suçluların kullanmadığını vurguladı. Google'ın istihbarat ekipleri, Çin ve Kuzey Kore bağlantılı devlet destekli grupların saldırı yeteneklerini artırmak için aktif olarak LLM kullandıklarını gözlemledi.
Çin bağlantılı bir aktör olan UNC2814'ün, TP-Link ürün yazılımındaki açıkları araştırmak için yapay zekaya bir güvenlik uzmanı gibi davranması talimatını veren kişiliğe dayalı "jailbreak" yöntemlerini kullandığı görüldü. APT45 olarak izlenen bir Kuzey Koreli grubun ise bilinen açıkları yinelemeli olarak analiz etmek ve kavram kanıtlama (PoC) saldırılarını doğrulamak için binlerce tekrarlayan istem (prompt) gönderdiği ve yapay zeka yardımı olmadan pratik olmayacak kadar sağlam bir cephanelik oluşturduğu iddia edildi.
Yeni Bir Siber Güvenlik Silahlanma Yarışı
Gelişme, gelişmiş yapay zekanın çift kullanımlı doğasını vurguluyor. Tehdit aktörleri saldırıları hızlandırmak için bunu kullanırken, aynı teknoloji kritik bir savunma aracı olarak da konumlandırılıyor. Anthropic ve OpenAI gibi şirketler, savunmacıların kendi sistemlerindeki açıkları bulup yamalamalarına yardımcı olmayı amaçlayan özel yapay zeka modelleri geliştiriyor.
Bu durum, yapay zeka destekli saldırganları yapay zeka destekli savunmacılarla karşı karşıya getiren siber güvenlik silahlanma yarışında yeni bir cephe açıyor. Uzmanlar, şirketlerin yazılımlarının benzeri görülmemiş bir ölçekte ve hızda zayıf noktalar için taranabileceği bir dünyaya uyum sağlamaya çalıştığı şu günlerde, siber güvenlik risklerinin önemli ölçüde arttığı bir "geçiş dönemi" öngörüyor.
Bu makale sadece bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.