El acceso no autorizado al potente modelo Mythos AI de Anthropic ha encendido los temores de una nueva ola de ciberataques sofisticados, amenazando con acelerar un mercado para la seguridad impulsada por IA que ya se proyecta que crecerá casi un 30 por ciento anual. La brecha, originada en un proveedor externo, expuso la misma herramienta diseñada para encontrar vulnerabilidades de software, activando alarmas tanto entre reguladores como en empresas de ciberseguridad.
"Estamos investigando un informe que alega acceso no autorizado a Claude Mythos Preview a través de uno de nuestros entornos de proveedores externos", dijo un portavoz de Anthropic en un comunicado, enfatizando que la compañía no ha encontrado impacto en sus sistemas principales.
El incidente de seguridad, informado por primera vez por Bloomberg, involucró a un pequeño grupo en un canal privado de Discord que obtuvo acceso a la vista previa de Mythos el mismo día que se lanzó a socios seleccionados a finales de febrero. El modelo, que puede identificar y explotar de forma autónoma fallas de seguridad digital, era parte de una iniciativa controlada llamada Project Glasswing, que incluye socios como Google, Microsoft y JPMorgan Chase. La propia Anthropic ha reconocido que el modelo es "demasiado peligroso" para el lanzamiento público después de descubrir miles de vulnerabilidades en los principales sistemas operativos.
La brecha resalta la naturaleza de doble filo de la IA avanzada, provocando llamados a controles más estrictos y, al mismo tiempo, impulsando las perspectivas para las acciones de ciberseguridad. KeyBanc mejoró recientemente a CrowdStrike a Overweight con un precio objetivo de 525 dólares, citando a Mythos como un catalizador para la demanda de seguridad impulsada por IA. El incidente presiona a la coalición Project Glasswing, liderada por EE. UU., para demostrar que las capacidades defensivas del modelo pueden superar su potencial de mal uso ofensivo.
Una espada de doble filo para las finanzas globales
La capacidad del modelo Mythos para encontrar y generar exploits para fallas de software ha causado revuelo en el sector financiero global. Las autoridades bancarias y los jefes de los bancos centrales, desde el Bundesbank alemán hasta los reguladores de Australia y Corea del Sur, han expresado su preocupación de que la tecnología pueda usarse para desestabilizar sistemas bancarios críticos.
En un discurso en Roma, el jefe del banco central alemán, Joachim Nagel, describió el modelo de IA como una "espada de doble filo" y pidió que todas las instituciones pertinentes tengan acceso a la tecnología para mantener la igualdad de condiciones. Mientras que los principales bancos de EE. UU. como JPMorgan Chase y Bank of America han estado probando Mythos, las fuentes indican que Anthropic planea implementar el acceso a los bancos europeos en cuestión de días o semanas.
La NSA y una controversia creciente
La controversia se profundizó con un informe de Axios de que la Agencia de Seguridad Nacional de EE. UU. (NSA) ha estado usando Mythos, a pesar de que el Pentágone emitió previamente una designación de riesgo de cadena de suministro para Anthropic. Esta designación, que siguió a una disputa sobre las salvaguardas para el uso militar, prohibió a los contratistas del Pentágono usar la tecnología de la empresa. Si bien no es una prohibición para todo el gobierno, el uso reportado del modelo por parte de la NSA plantea preguntas sobre la supervisión interna de poderosas herramientas de IA dentro de las agencias de seguridad nacional.
El incidente subraya el rápido ritmo del desarrollo de la IA, que a menudo supera la creación de marcos regulatorios. A medida que compañías como Anthropic, OpenAI y Google superan los límites de las capacidades de la IA, los gobiernos luchan por equilibrar la innovación con la seguridad, un desafío que se está convirtiendo en un tema de política definitorio para la década.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.