Los principales reguladores financieros de EE. UU. han emitido una advertencia directa a los bancos más grandes del país, señalando una nueva fase de mayor escrutinio sobre la integración de la inteligencia artificial en el sistema financiero.
El secretario del Tesoro de EE. UU., Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron una reunión urgente con ejecutivos bancarios el martes para advertirles sobre los riesgos sistémicos que plantea el último modelo de IA de Anthropic, una medida que podría frenar la adopción de la IA en el sector. La reunión del 9 de abril, informada por Bloomberg, marca la primera vez que los jefes del Tesoro y la Fed intervienen conjuntamente sobre los riesgos específicos de un modelo de IA comercial.
"El potencial de fallas correlacionadas o riesgos emergentes de un solo modelo ampliamente utilizado es un nuevo vector de riesgo sistémico que requiere nuestra atención inmediata", dijo una fuente familiarizada con la reunión.
Si bien no se revelaron métricas específicas sobre la adopción del nuevo modelo de Anthropic dentro del sector bancario, la acción preventiva de los reguladores sugiere un alto nivel de preocupación. La advertencia se produce mientras los bancos exploran agresivamente la IA para mejorar la eficiencia; solo JPMorgan Chase & Co. (JPM) gasta más de 15 mil millones de dólares anuales en tecnología. La exposición del sector financiero a proveedores tecnológicos externos ya es un foco regulatorio clave, y esta reunión extiende esa preocupación a los modelos de IA fundacionales.
El problema central en juego es si la adopción rápida y generalizada de un solo modelo de IA podría crear una nueva forma de riesgo sistémico, donde una falla o un comportamiento imprevisto en el modelo podría afectar simultáneamente a múltiples instituciones financieras importantes. Esto podría conducir a una cascada de fallas. Se espera que los reguladores emitan pautas formales sobre la gestión de riesgos de modelos de IA dentro de los próximos seis meses, lo que potencialmente requerirá que los bancos diversifiquen sus proveedores de IA y demuestren la resiliencia de los modelos.
La reunión no programada subraya una escalada significativa en la supervisión regulatoria de la inteligencia artificial dentro de la industria financiera. A diferencia de las orientaciones anteriores sobre ciberseguridad o gestión de proveedores externos, esta intervención se dirige a la tecnología fundacional en sí. El enfoque en un modelo específico de Anthropic, un desarrollador líder de IA respaldado por importantes firmas tecnológicas y financieras, resalta la preocupación de que un ecosistema de IA homogéneo pueda introducir puntos únicos de falla en todo el sistema bancario.
Las instituciones financieras han sido adoptantes tempranos y entusiastas del aprendizaje automático para todo, desde la detección de fraudes hasta el trading algorítmico y la concesión de préstamos. Sin embargo, la complejidad y la naturaleza de "caja negra" de la última generación de modelos de lenguaje extenso (LLM) presentan un desafío novedoso. A los reguladores les preocupa que los bancos no tengan la experiencia interna para evaluar completamente estos modelos en busca de sesgos ocultos, vulnerabilidades de seguridad o el potencial de un comportamiento procíclico inesperado durante una crisis de mercado.
Es probable que la advertencia de Bessent y Powell desencadene una ola de revisiones internas y podría retrasar el despliegue de IA de vanguardia dentro de los bancos estadounidenses. Los directores de Riesgo ahora estarán bajo presión para demostrar a los reguladores que sus instituciones cuentan con marcos robustos para probar, validar y monitorear modelos de IA de terceros. Esto casi con certeza aumentará los costos de cumplimiento y puede forzar un cambio estratégico de depender de proveedores de modelos únicos y dominantes hacia un enfoque de múltiples proveedores más diversificado para mitigar el riesgo de concentración.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.