El Pentágono incluye a Anthropic en la lista negra por una disputa de contrato de 200 millones de dólares
El 17 de marzo de 2026, el gobierno de EE. UU. designó al desarrollador de IA Anthropic como un riesgo "inaceptable" para la seguridad nacional y la cadena de suministro, una acción que surge de un enfrentamiento por un contrato de defensa de 200 millones de dólares. El conflicto se encendió después de que Anthropic se negara a eliminar las restricciones éticas sobre su tecnología, insistiendo en que sus modelos de IA no se usaran para el despliegue de armas autónomas o la vigilancia masiva doméstica. En un expediente judicial, la administración Trump defendió la decisión, enmarcándola como una cuestión de negociación contractual y seguridad nacional, en lugar de una violación de los derechos de libertad de expresión de Anthropic. La designación, típicamente reservada para adversarios extranjeros, prohíbe a Anthropic participar en contratos de defensa específicos y ha sido impugnada por la compañía como "sin precedentes e ilegal".
Anthropic demanda mientras la etiqueta de riesgo amenaza miles de millones en contratos
En respuesta, Anthropic ha presentado múltiples demandas contra el gobierno de EE. UU., buscando bloquear la inclusión del Pentágono en la lista negra. La compañía, que tiene una valoración de 380.000 millones de dólares y unos ingresos anuales de 14.000 millones de dólares, argumenta que la designación es una represalia y presenta fallos de procedimiento. Anthropic afirma que la medida podría costarle miles de millones de dólares en contratos perdidos, ya que la etiqueta de "riesgo de la cadena de suministro" crea una incertidumbre significativa para sus clientes gubernamentales y comerciales. Las consecuencias ya se están extendiendo por el mercado, y los clientes del sector de la tecnología legal están realizando revisiones de alta prioridad sobre su dependencia de los modelos de Anthropic. Esta incertidumbre obliga a las empresas a evaluar modelos de IA alternativos de competidores como OpenAI y Google, lo que podría llevar a una disminución del rendimiento para aquellos que consideran a Claude de Anthropic el modelo superior para tareas especializadas.
El choque ético de la IA crea una incertidumbre generalizada en la industria
Este conflicto destaca una creciente tensión entre los principales desarrolladores de IA y las agencias gubernamentales sobre la aplicación militar de la inteligencia artificial. Mientras que Anthropic ha adoptado una postura ética firme, su rival OpenAI supuestamente negoció su propio contrato con el Pentágono después de estar inicialmente de acuerdo con la posición de Anthropic. La situación crea imprevisibilidad en todo el ecosistema de la IA, afectando a las empresas que desarrollan servicios sobre estos modelos fundamentales.
Cuando el gobierno designa a una empresa líder de IA estadounidense como un riesgo para la seguridad nacional, esa incertidumbre no se queda contenida, se extiende por todo el ecosistema.
— Thomas Bueler-Faudree, CEO de August.
A pesar de la batalla legal en curso, algunos expertos de la industria siguen siendo optimistas y predicen que la disputa es temporal. Creen que las partes eventualmente encontrarán una manera de trabajar juntas, citando precedentes pasados en los que empresas tecnológicas demandaron con éxito al gobierno y luego se convirtieron en socios clave.