El Pentágono Elige xAI para Operaciones Secretas con un Contrato de 200 M$
El Pentágono ha decidido oficialmente implementar el chatbot Grok de xAI de Elon Musk dentro de sus redes clasificadas, marcando un momento crucial en la adopción gubernamental de la inteligencia artificial. Este movimiento sitúa a xAI en el centro de operaciones sensibles de seguridad nacional. La integración surge de un contrato de julio otorgado por la oficina de IA del Pentágono a xAI, Google, OpenAI y Anthropic, con un valor potencial de hasta 200 millones de dólares. Sin embargo, solo xAI y Anthropic habían sido aprobadas previamente para uso clasificado, sentando las bases para una competencia directa.
Revisión de la NSA Señaló a Grok por "Preocupaciones de Seguridad Particulares"
La decisión de elevar a Grok contradice las advertencias internas de múltiples agencias federales. Una revisión clasificada de la Agencia de Seguridad Nacional (NSA) en noviembre de 2024 concluyó que Grok planteaba "preocupaciones de seguridad particulares" no encontradas en otros modelos como Claude de Anthropic. Funcionarios de la Administración de Servicios Generales (GSA) también dieron la voz de alarma, citando la susceptibilidad de Grok al envenenamiento y manipulación de datos. Estas preocupaciones fueron lo suficientemente significativas como para que la GSA haya suspendido Grok para el uso de su propio personal y el modelo sigue excluido de la plataforma USAi, un entorno de pruebas para que los empleados federales prueben modelos de IA. El impulso para adoptar Grok, a pesar de estas señales de advertencia, contribuyó a la reciente renuncia de Matthew Johnson, el jefe de IA responsable del Pentágono, quien había resaltado los problemas de seguridad de Grok en memorandos internos.
El Pentágono Presiona a Anthropic con un Ultimátum para el Viernes
Mientras que abraza a xAI, el Departamento de Defensa está confrontando simultáneamente a Anthropic por sus estrictos protocolos de seguridad. El Secretario de Defensa, Pete Hegseth, ha emitido una fecha límite para el viernes para que Anthropic acepte reglas más flexibles para aplicaciones militares o se enfrente a una posible prohibición de trabajo gubernamental. Las directrices actuales de Anthropic prohíben que su IA se utilice para facilitar la violencia, desarrollar armas o llevar a cabo vigilancia. Este conflicto refleja una división política dentro del gobierno, donde algunos altos funcionarios ven a Anthropic como "demasiado woke" y sus posturas de seguridad como un impedimento. En contraste, xAI ha acordado un lenguaje que permite que sus modelos se utilicen en todos los escenarios militares legítimos, lo que le otorga una ventaja crítica para asegurar contratos de defensa.