Kurumlar içindeki yapay zeka ajanlarının hızlı ve kontrolsüz büyümesi, üretkenlik kazanımları ile artan güvenlik ve maliyet risklerini karşı karşıya getiren yeni ve çok yönlü bir sorun yaratıyor.
Kurumlar içindeki yapay zeka ajanlarının hızlı ve kontrolsüz büyümesi, üretkenlik kazanımları ile artan güvenlik ve maliyet risklerini karşı karşıya getiren yeni ve çok yönlü bir sorun yaratıyor.

Önümüzdeki iki yıl içinde ortalama bir Fortune 500 şirketinde 150.000 botun çalışacağı tahmin edilen otonom yapay zeka ajanlarının çoğalması, üretkenlik kazanımlarını gölgede bırakma tehdidi taşıyan önemli bir yönetim ve siber güvenlik zorluğu yaratıyor.
Magnum Ice Cream Amerika Kıtası Bilişim Kurulu Başkanı Michael Friedlander, The Wall Street Journal'a yaptığı açıklamada, "Herkes bunu yapabildiği için muhtemelen çok sayıda insanın aynı tür ajanlara sahip olduğu bir durumla karşılaşacağız" diyerek sorunun merkezi olmayan doğasına dikkat çekti.
Lyft, DaVita ve Fair Isaac (FICO) gibi şirketler, Anthropic'in Claude Cowork gibi platformlarla bot oluşturma kolaylığının etkisiyle bu 'yapay zeka ajanı yayılımı' ile şimdiden mücadele ediyor. Böbrek bakım şirketi DaVita'daki çalışanlar 10.000'den fazla yapay zeka ajanı oluşturdu. Pazar araştırma firması Gartner'a göre, kuruluşların yalnızca %13'ü bugün yeterli yapay zeka ajanı yönetişimine sahip olduğuna inanıyor.
Bu yönetişim eksikliği, bilgi işlem maliyetlerini artıran gereksiz ajanlar ve hassas dahili sistemleri ifşa eden yanlış yapılandırılmış botlarla önemli bir finansal ve güvenlik riski oluşturuyor; Microsoft, bu tehdidin saldırganlar tarafından halihazırda aktif olarak kullanıldığını bildiriyor.
Sorunun özü, yapay zeka araçlarını cazip kılan erişilebilirlikten kaynaklanıyor. Anthropic gibi şirketlerin platformları ve OpenClaw ile Microsoft'un AutoGen Studio gibi açık kaynaklı çerçeveler, teknik bilgisi olmayan çalışanların e-postaları özetlemek, kod yazmak veya verileri analiz etmek gibi görevler için ajanlar oluşturmasını ve dağıtmasını kolaylaştırıyor. FICO CIO'su Mike Trkay, şirketin hiyerarşisi genelinde her gün düzinelerce yeni ajanın oluşturulduğunu söyledi.
Bu durum inovasyonu teşvik edebilse de kaosa da yol açıyor. Birden fazla ajan aynı görevi yerine getirerek jeton (token) ve bilgi işlem maliyetlerini gereksiz yere artırabiliyor. Daha da kötüsü, aynı verilerden çelişkili sonuçlar üreterek karar verme sürecini zayıflatabiliyorlar. Bunu yönetmek için DaVita, jeton maliyetlerini yönetmek ve düşük performanslı ajanları dizginlemek için dahili bir platform geliştirirken, Lyft bilişim kontrollerine sahip merkezi bir platform oluşturuyor.
Kontrolsüz ajan büyümesinin en ciddi riski siber güvenliktedir. Microsoft Defender for Cloud araştırmasına göre, birçok yapay zeka dağıtımı Kubernetes gibi bulut tabanlı platformlarda zayıf veya eksik kimlik doğrulamasıyla aceleyle yayına alınıyor. Bu 'istismar edilebilir yanlış yapılandırmalar', düşük çaba gerektiren ancak yüksek etkili saldırı yolları oluşturuyor.
Araştırmacılar, popüler açık kaynaklı yapay zeka araçlarının güvenli olmayan varsayılan ayarlarla dağıtıldığını buldu. Bir veri ve yapay zeka boru hattı platformu olan Mage AI'nın, küme yöneticisi ayrıcalıklarıyla rastgele kod yürütülmesine izin veren kimlik doğrulamasız bir web arayüzüne sahip olduğu tespit edildi. Sorun o zamandan beri yamalanmış olsa da vahşi doğada aktif olarak istismar edildiği gözlemlendi. Benzer şekilde, Kubernetes üzerinde yapay zeka ajanlarını çalıştırmak için kullanılan kagent çerçevesinin varsayılan olarak kimlik doğrulamasından yoksun olduğu ve uygulamanın kamuya açık olması durumunda anonim kullanıcıların kötü amaçlı iş yükleri dağıtmasına izin verdiği bulundu.
Bu zafiyetler, saldırganların gelişmiş sıfır gün (zero-day) açıklarını kullanmadan uzaktan kod yürütmesine, kimlik bilgilerini çalmasına ve hassas dahili araçlara ve verilere erişmesine olanak tanıyabilir. Microsoft, ajanların harici araçlarla etkileşime girmesine izin veren uzaktan dağıtılmış Model Bağlam Protokolü (MCP) sunucularının %15'inin güvenli olmadığını ve dahili İK sistemlerine ve özel kod depolarına kimlik doğrulamasız erişime izin verdiğini buldu.
Yayılımla mücadele etmek için güvenlik uzmanları, oluşturucuların en fazla kontrole sahip olduğu uygulama katmanına odaklanan bir 'derinlemesine savunma' stratejisi önermektedir. Bu yaklaşım, yapay zeka modelinin olasılıksal güvenlik özelliklerine güvenmenin ötesine geçer ve ajanların nasıl oluşturulduğu ve yönetildiği konusunda yapısal kontroller uygular.
Microsoft güvenlik mimarları dört ana tasarım modelini savunuyor. Birincisi, ajanları mikro hizmetler gibi dar sorumluluklara ve izole edilmiş izinlere sahip olacak şekilde tasarlayarak herhangi bir ihlalin etki alanını sınırlamak. Bu, bir botun aşırı geniş erişime sahip olduğu 'her şeyi yapan ajan' arıza moduna karşı koyar.
İkincisi, ajanların sıfır izinle başladığı ve yalnızca bir görev için gereken belirli araçlara ve verilere açıkça erişim izni verildiği en az ayrıcalık politikasını uygulamaktır. Üçüncüsü, yüksek riskli kararlar için deterministik 'insan döngüde' (human-in-the-loop - HITL) incelemeleri uygulamaktır. Kritik olarak, insan incelemesi tetikleyicileri kodda tanımlanmalı ve uygulama tarafından zorunlu kılınmalıdır; ajanın kendi muhakemesine bırakılmamalıdır.
Son olarak, ajan kimliğinin temel bir güvenlik ilkesi olarak belirlenmesi kritiktir. Her ajanın, onu oluşturan kullanıcıdan ayrı, benzersiz ve doğrulanabilir bir kimliği olmalıdır. Bu, ayrıntılı izinler, yaşam döngüsü yönetişimi ve net denetim yolları sağlayarak binlerce ajan dağıtıldığında eylemlerinin izlenmesini, yönetilmesini ve gerekirse yetkilerinin geri alınmasını sağlar.
Bu makale yalnızca bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.