La administración Trump está utilizando inteligencia artificial para auditar la cadena de suministro de defensa de EE. UU., identificando vulnerabilidades profundas vinculadas a dos décadas de estrategia económica dirigida por parte de China.
Atrás
La administración Trump está utilizando inteligencia artificial para auditar la cadena de suministro de defensa de EE. UU., identificando vulnerabilidades profundas vinculadas a dos décadas de estrategia económica dirigida por parte de China.

La administración Trump está utilizando inteligencia artificial para exponer vulnerabilidades críticas dentro de la cadena de suministro militar de EE. UU., identificando lo que un experto llama el resultado de dos décadas de guerra económica por parte de China. La auditoría impulsada por IA ha señalado riesgos profundamente arraigados vinculados a materiales y proveedores chinos dentro de los sistemas de armas centrales, forzando un cambio de política sobre la supervisión de la IA.
"Hay una gran y gruesa franja intermedia de fabricación en la que China se ha centrado durante los últimos 20 años", dijo Brandon Daniels, CEO de la firma de análisis de cadena de suministro Exiger, en una entrevista reciente. La plataforma de IA de su firma se está utilizando para rastrear el origen de componentes críticos para el ejército de EE. UU.
El análisis reveló que donde EE. UU. alguna vez tuvo más de 360 fabricantes para componentes de defensa clave como piezas fundidas de hierro y magnesio, ese número ha caído por debajo de 120 en la última década. Este declive se produce mientras modelos de IA de empresas como Anthropic y Palantir están siendo utilizados por el Pentágono para cribar vastas cantidades de datos tanto para el análisis logístico como para la fijación de objetivos en el campo de batalla.
El impulso para asegurar la cadena de suministro resalta una fuerte tensión para la administración: aprovechar la IA para la seguridad nacional mientras simultáneamente se intenta controlar su potencial de riesgo catastrófico. Esto ha llevado a una súbita aceptación de las pruebas de seguridad gubernamentales para la IA avanzada, una política que la administración descartó previamente como una regulación excesiva.
### ¿Una nueva era de supervisión de la IA?
El cambio de opinión de la administración se produjo después de que Anthropic, una firma líder de IA, anunciara que no lanzaría públicamente su último modelo, bautizado como Mythos. Las pruebas internas de la compañía mostraron que el modelo era tan potente para encontrar fallos de ciberseguridad que podría ser convertido en arma por actores malintencionados para comprometer sistemas informáticos globales. Según se informa, el incidente asustó a la Casa Blanca, llevándola a buscar acuerdos con Google DeepMind, Microsoft y xAI para permitir controles de seguridad gubernamentales de sus modelos más avanzados.
La nueva política otorga un mandato al rebautizado Centro de Estándares e Innovación de IA (CAISI) para evaluar los modelos de IA de frontera ante riesgos de seguridad nacional. Sin embargo, los críticos cuestionan si el CAISI, con un presupuesto de solo 10 millones de dólares, está adecuadamente financiado o equipado para evaluar sistemas secretos y complejos de firmas con presupuestos de investigación de miles de millones de dólares. Devin Lynch, exdirector de política cibernética de la Casa Blanca, señaló en LinkedIn que "las evaluaciones de capacidad son tan buenas como los modelos de amenaza que las sustentan", cuestionando qué estándares usaría el CAISI.
### IA en la cadena de ejecución (Kill Chain)
El debate sobre la seguridad de la IA corre paralelo a su rápida adopción en el campo de batalla. En el conflicto en curso con Irán, el ejército de EE. UU. ha utilizado la IA más que en cualquier guerra anterior, según un informe reciente de CNN. Software de contratistas como Palantir criba inteligencia satelital y de señales para recomendar objetivos a los comandantes, acelerando drásticamente el "bucle OODA" de observar, orientar, decidir y actuar.
El Secretario de Defensa, Pete Hegseth, ha insistido en que "los humanos toman las decisiones", pero la velocidad de la fijación de objetivos asistida por IA plantea nuevas preguntas legales y éticas. El Pentágono está en una disputa pública con Anthropic sobre la insistencia de la compañía en poner límites a cómo se puede usar su tecnología, con Hegseth criticando la postura de la firma. Este conflicto subraya el desafío central: el ejército quiere moverse lo más rápido posible con la IA para mantener una ventaja, mientras que los creadores de los sistemas de IA más potentes están cada vez más preocupados por las consecuencias.
La situación crea un entorno volátil para los inversores. Las empresas en los sectores de defensa y tecnología con vínculos de cadena de suministro de alto riesgo con China podrían enfrentar vientos en contra significativos. Por el contrario, firmas como Exiger que proporcionan seguridad impulsada por IA y análisis de la cadena de suministro pueden ver un aumento en la demanda. El giro de la administración sugiere un nuevo enfoque más intervencionista que podría remodelar la regulación para toda la industria de la IA, afectando a gigantes como Microsoft y Google, así como a contratistas de defensa especializados.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.