ABD'li üst düzey finansal düzenleyiciler, finansal sisteme yapay zeka entegrasyonu üzerindeki denetimin arttığı yeni bir aşamaya işaret ederek, ülkenin en büyük bankalarına doğrudan bir uyarıda bulundu.
ABD Hazine Bakanı Scott Bessent ve Federal Rezerv Başkanı Jerome Powell, Anthropic'in en son yapay zeka modelinin oluşturduğu sistemik riskler konusunda uyarmak üzere Salı günü banka yöneticileriyle acil bir toplantı düzenledi; bu hamle sektördeki yapay zeka benimsenmesini yavaşlatabilir. Bloomberg tarafından bildirilen 9 Nisan'daki toplantı, Hazine ve Fed başkanlarının ticari bir yapay zeka modelinin spesifik riskleri konusunda ilk kez ortaklaşa müdahale etmesi anlamına geliyor.
Toplantıya aşina bir kaynak, "Yaygın olarak kullanılan tek bir modelden kaynaklanan korele hatalar veya ortaya çıkan risk potansiyeli, acil dikkatimizi gerektiren yeni bir sistemik risk vektörüdür" dedi.
Yeni Anthropic modelinin bankacılık sektöründeki benimsenmesine ilişkin spesifik metrikler açıklanmasa da, düzenleyicilerin önleyici eylemi yüksek düzeyde endişeye işaret ediyor. Uyarı, sadece JPMorgan Chase & Co.'nun (JPM) teknolojiye yılda 15 milyar dolardan fazla harcadığı ve bankaların verimliliği artırmak için agresif bir şekilde yapay zekayı araştırdığı bir dönemde geldi. Finans sektörünün üçüncü taraf teknoloji satıcılarına olan maruziyeti zaten kilit bir düzenleyici odak noktasıydı; bu toplantı bu endişeyi temel yapay zeka modellerine taşıdı.
Mesele, tek bir yapay zeka modelinin hızlı ve yaygın bir şekilde benimsenmesinin, modeldeki bir kusurun veya öngörülemeyen bir davranışın birden fazla büyük finans kuruluşunu aynı anda etkileyebileceği yeni bir sistemik risk biçimi oluşturup oluşturmayacağıdır. Bu durum bir dizi başarısızlığa yol açabilir. Düzenleyicilerin önümüzdeki altı ay içinde yapay zeka model risk yönetimi konusunda resmi yönergeler yayınlaması, potansiyel olarak bankaların yapay zeka satıcılarını çeşitlendirmelerini ve model dayanıklılığını kanıtlamalarını gerektirmesi bekleniyor.
Planlanmamış toplantı, finans sektöründeki yapay zeka üzerindeki düzenleyici gözetimin önemli ölçüde arttığını vurguluyor. Siber güvenlik veya üçüncü taraf satıcı yönetimine ilişkin önceki yönergelerin aksine, bu müdahale doğrudan temel teknolojiyi hedef alıyor. Büyük teknoloji ve finans firmaları tarafından desteklenen lider bir yapay zeka geliştiricisi olan Anthropic'in belirli bir modeline odaklanılması, homojen bir yapay zeka ekosisteminin bankacılık sistemi genelinde tek hata noktaları oluşturabileceği endişesini vurguluyor.
Finansal kuruluşlar, dolandırıcılık tespitinden algoritmik ticarete ve kredi risk değerlendirmesine kadar her alanda makine öğrenimini erkenden ve hevesle benimsemişlerdir. Ancak, en son nesil büyük dil modellerinin (LLM'ler) karmaşıklığı ve "kara kutu" doğası yeni bir zorluk teşkil ediyor. Düzenleyiciler, bankaların bu modelleri gizli önyargılar, güvenlik açıkları veya piyasa krizi sırasında beklenmedik, döngü yanlısı davranış potansiyeli açısından tam olarak incelemek için dahili uzmanlığa sahip olmayabileceğinden endişe ediyor.
Bessent ve Powell'dan gelen uyarı, muhtemelen bir iç inceleme dalgasını tetikleyecek ve ABD bankalarında son teknoloji yapay zekanın yaygınlaştırılmasını yavaşlatabilecektir. Risk Yönetimi Başkanları artık düzenleyicilere, kurumlarının üçüncü taraf yapay zeka modellerini test etmek, doğrulamak ve izlemek için sağlam çerçevelere sahip olduğunu kanıtlama baskısı altında olacaklar. Bu durum kesinlikle uyum maliyetlerini artıracak ve konsantrasyon riskini azaltmak için tek, hakim model sağlayıcılarına güvenmekten daha çeşitlendirilmiş, çok satıcılı bir yaklaşıma doğru stratejik bir kaymaya zorlayabilecektir.
Bu makale sadece bilgilendirme amaçlıdır ve yatırım tavsiyesi teşkil etmez.