Varias agencias federales de EE. UU. están probando en secreto el nuevo modelo de IA Mythos de Anthropic, desafiando una prohibición de la Casa Blanca impuesta después de que la empresa se negara a permitir que su tecnología se utilizara para armas autónomas letales. La capacidad del modelo para encontrar fallos de software críticos ha creado un agudo conflicto entre la administración y sus propias necesidades de ciberseguridad.
"Espero de verdad que la tensión actual entre el Pentágono y Anthropic no se interponga en el avance de un trabajo que es fundamental para la ciberseguridad", afirmó Glen Gerstell, exasesor jurídico general de la Agencia de Seguridad Nacional (NSA).
El Centro de Innovación y Estándares de IA (CAISI) del Departamento de Comercio está llevando a cabo una evaluación de "equipo rojo" (red team) de Mythos. Según se informa, el Departamento del Tesoro también busca utilizar el modelo para encontrar vulnerabilidades en la red. Esto se produce tras la negativa del director ejecutivo de Anthropic, Dario Amodei, en febrero, a permitir que el Pentágono utilizara sus modelos para ataques autónomos, lo que provocó la prohibición.
El punto muerto pone de relieve un dilema crítico de seguridad nacional: el gobierno se está bloqueando a sí mismo el uso de una herramienta de ciberseguridad revolucionaria de una empresa nacional. Con la predicción de Anthropic de que surgirán modelos rivales similares en un plazo de dos años, EE. UU. corre el riesgo de quedarse atrás en la carrera de la ciberseguridad impulsada por la IA, dejando potencialmente vulnerables las infraestructuras críticas.
Gobierno en conflicto
A pesar de la prohibición oficial, que designó a Anthropic como un "riesgo para la cadena de suministro", los expertos en ciberseguridad del gobierno siguen adelante. Según cuatro personas familiarizadas con el asunto, los investigadores del CAISI comenzaron a probar las capacidades ofensivas de Mythos incluso antes de su anuncio público. Un funcionario de Anthropic confirmó que proporcionó el modelo al gobierno para "pruebas autónomas y evaluación técnica", aunque no se nombró a ninguna agencia en las declaraciones públicas de la empresa.
"El gobierno de los Estados Unidos intenta prohibir al propio gobierno el uso de productos de Anthropic — y unas semanas después, la empresa lanza un producto revolucionario que es profundamente importante para la ciberseguridad", dijo Charlie Bullock, investigador principal del Law & AI Institute. La presión política ha creado un efecto disuasorio, y un exfuncionario de seguridad nacional afirmó que las agencias tienen miedo de colaborar abiertamente con Anthropic. Un asesor del Congreso dijo que el Pentágono "se ha pegado un tiro en el pie mientras les hacía un gesto obsceno a sus proveedores de IA más capaces".
Una amenaza inminente
Anthropic está limitando el lanzamiento de Mythos a selectas empresas de tecnología y ciberseguridad, al considerar que su poder para descubrir y explotar vulnerabilidades de software desconocidas es demasiado arriesgado para el acceso público. La advertencia de dos años de la empresa sobre la proliferación de herramientas similares sugiere que podría ser inminente una futura ola de ciberataques sofisticados impulsados por IA. Esto coloca al gobierno de EE. UU. en una carrera contra el tiempo que sus propios conflictos internos están complicando.
Este artículo tiene fines informativos únicamente y no constituye asesoramiento de inversión.