Anthropic está restringiendo su modelo de IA más potente, Mythos, utilizándolo con más de 40 socios, incluidos Google y Microsoft, para buscar fallos de software antes de que los adversarios puedan explotarlos.
Atrás
Anthropic está restringiendo su modelo de IA más potente, Mythos, utilizándolo con más de 40 socios, incluidos Google y Microsoft, para buscar fallos de software antes de que los adversarios puedan explotarlos.

Anthropic ha lanzado una amplia iniciativa de ciberseguridad para desplegar su modelo de IA de vanguardia no publicado, Claude Mythos Preview, contra software crítico, encontrando miles de vulnerabilidades, incluido un fallo de 27 años en uno de los sistemas operativos más seguros del mundo. El esfuerzo, denominado Project Glasswing, es un intento de dar ventaja a los defensores antes de que tales herramientas de hackeo impulsadas por IA estén ampliamente disponibles, pero sitúa las propias prácticas de seguridad de Anthropic bajo un intenso escrutinio.
"Dado el ritmo de progreso de la IA, no pasará mucho tiempo antes de que tales capacidades proliferen, potencialmente más allá de los actores comprometidos con un despliegue seguro", dijo Newton Cheng, Jefe de Ciberseguridad del Frontier Red Team en Anthropic, a VentureBeat. "Las repercusiones —para las economías, la seguridad pública y la seguridad nacional— podrían ser graves".
La empresa está restringiendo el lanzamiento público del modelo, proporcionando en su lugar acceso a un consorcio de más de 40 organizaciones, entre ellas Amazon, Apple, Google, Microsoft y la Linux Foundation. En las primeras pruebas, Anthropic afirma que Mythos identificó una vulnerabilidad remota de 27 años en OpenBSD y un fallo de 16 años en la biblioteca de vídeo FFmpeg. En el benchmark de evaluación CyberGym, Mythos Preview obtuvo una puntuación del 83,1%, un salto significativo respecto al 66,6% alcanzado por Claude Opus 4.6, su siguiente mejor modelo.
La iniciativa pretende cambiar la economía de la ciberseguridad, amenazando la viabilidad de la búsqueda manual de errores y forzando un movimiento hacia la creación de seguridad directamente en el ciclo de vida del desarrollo de software. El proyecto, respaldado por un compromiso de 100 millones de dólares en créditos de uso de modelos de Anthropic, podría ahorrar a los socios miles de millones en costes potenciales de brechas, una cifra que contextualiza la tasa de ingresos anuales reportada por Anthropic de más de 30.000 millones de dólares.
El gran volumen de vulnerabilidades descubiertas por Mythos presenta un desafío logístico. Anthropic afirma haber desarrollado una estructura de triaje para validar manualmente los errores de alta gravedad antes de notificarlos a los mantenedores, con el objetivo de evitar abrumar a los desarrolladores de código abierto no remunerados. La empresa también va a donar 4 millones de dólares a organizaciones como la OpenSSF y la Apache Software Foundation para apoyar estos esfuerzos.
"En el pasado, la experiencia en seguridad era un lujo reservado a organizaciones con grandes equipos de seguridad", dijo Jim Zemlin, director ejecutivo de la Linux Foundation, en un comunicado. "Project Glasswing ofrece un camino creíble para cambiar esa ecuación".
Este lanzamiento controlado se produce mientras Anthropic se enfrenta a preguntas sobre su propia seguridad operativa. La existencia de Mythos se reveló por primera vez después de que un borrador de una entrada de blog se dejara en un almacén de datos públicos no asegurado. Días después, la empresa publicó accidentalmente el código fuente de su paquete Claude Code en npm. Aunque Anthropic declaró que se trataba de errores humanos en las herramientas de publicación y no de brechas en su arquitectura de seguridad principal, los incidentes plantean dudas sobre su papel como custodio de una IA que considera demasiado peligrosa para su lanzamiento público.
La pregunta central es cuánto tiempo durará la ventaja de Anthropic. Los ejecutivos de la empresa estiman que los adversarios podrían desarrollar capacidades similares en meses, no en años. Por lo tanto, la iniciativa es una carrera para parchear sistemas críticos antes de que las herramientas de ataque proliferen. Para socios como Microsoft y CrowdStrike, el modelo ya se está utilizando para reforzar sus propias bases de código.
La medida afecta a toda la industria de la seguridad, especialmente a las empresas especializadas en la gestión de vulnerabilidades y las pruebas de penetración. Si la IA puede automatizar el descubrimiento a escala por 125 dólares por millón de tokens de salida, el modelo de negocio de las auditorías de seguridad dirigidas por humanos se enfrentará a una presión significativa. Para los inversores, el proyecto destaca la naturaleza de doble uso de la IA de vanguardia, donde el mayor riesgo y la mayor oportunidad son las dos caras de la misma moneda. El mercado aún no ha valorado las implicaciones defensivas y ofensivas de una IA que puede encontrar y explotar de forma autónoma vulnerabilidades críticas de software.
Este artículo tiene únicamente fines informativos y no constituye asesoramiento de inversión.