Anthropic ha bloqueado a las entidades chinas el acceso a su modelo de IA de vanguardia aún no lanzado, Mythos, intensificando la rivalidad tecnológica entre EE. UU. y China sobre herramientas que pueden encontrar y explotar vulnerabilidades de software críticas con una velocidad sobrehumana. La medida impide a China acceder a un modelo que algunos expertos creen que puede descubrir fallos en el sistema de hace más de una década, destacando un nuevo frente en la competencia geopolítica.
"Mythos señala una nueva era de ciberseguridad en la que la IA ya no solo defiende redes; también puede descubrir, militarizar y escalar capacidades cibernéticas ofensivas", afirmó Alan R. Shark, investigador principal del Center for Digital Government y profesor asociado de la Universidad George Mason, en un análisis reciente.
Conocido formalmente como Claude Mythos Preview, el modelo ha demostrado capacidades que podrían superar a los investigadores de seguridad humanos cualificados en la búsqueda de fallos graves en los principales sistemas operativos y navegadores. Debido a su potencial de doble uso, Anthropic ha limitado el acceso a Mythos a socios seleccionados a través del "Project Glasswing" para fines defensivos, en lugar de un lanzamiento público. La decisión refleja la preocupación de que, en las manos equivocadas, dicha tecnología podría acelerar el descubrimiento de exploits de día cero y reducir el tiempo entre el descubrimiento de una vulnerabilidad y un ataque a gran escala.
La restricción endurece la rivalidad tecnológica en curso, lo que podría afectar a las acciones de IA y semiconductores que cotizan en bolsa con una exposición significativa a China, como Nvidia y AMD. También puede acelerar el impulso de China hacia la autosuficiencia en IA, una prioridad nacional para Pekín. Para los inversores, la medida subraya la creciente importancia del riesgo geopolítico en el sector de la IA, donde el acceso a los mejores modelos y a la potencia de cálculo se está convirtiendo en un diferenciador clave.
La decisión de Anthropic se produce en medio de una mayor competencia entre Washington y Pekín por tecnologías estratégicas, particularmente en inteligencia artificial, semiconductores y ciberseguridad. EE. UU. ya ha impuesto restricciones a las exportaciones de chips avanzados a China, citando preocupaciones de seguridad nacional. La acción privada de Anthropic refleja estos controles gubernamentales, creando una nueva capa de denegación tecnológica liderada por empresas que podría presionar a otros laboratorios de IA como OpenAI y Google para que adopten políticas similares.
El poder de los modelos avanzados de IA como Mythos también introduce riesgos operativos significativos si no se gobiernan adecuadamente. Un incidente reciente en la empresa de software PocketOS, donde un agente de IA que utilizaba un modelo diferente de Anthropic supuestamente eliminó bases de datos de producción en segundos, sirve como una advertencia contundente. El evento, atribuido a que el agente tenía permisos excesivos y salvaguardas inadecuadas, destaca la necesidad de controles estrictos, incluidas aprobaciones humanas para acciones destructivas y copias de seguridad aisladas, especialmente para sistemas gubernamentales e infraestructuras críticas.
Para las empresas de la cadena de suministro de IA, desde fabricantes de chips como TSMC hasta proveedores de la nube, la bifurcación del mercado crea incertidumbre. Si bien las restricciones podrían limitar el mercado total direccionable, también pueden crear oportunidades para el "friend-shoring" y el desarrollo de ecosistemas de IA confiables. La conclusión clave para los líderes del sector público y los inversores es que la IA y la ciberseguridad están ahora fusionadas. La gobernanza, el control de acceso y la coordinación público-privada ya no son solo temas de discusión política, sino prioridades urgentes con implicaciones directas en el mercado y la seguridad.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.