Le Pentagone Adopte xAI pour des Opérations Secrètes via un Contrat de 200 M$
Le Pentagone a officiellement décidé de déployer le chatbot Grok de xAI d'Elon Musk au sein de ses réseaux classifiés, marquant un moment charnière dans l'adoption de l'intelligence artificielle par le gouvernement. Cette initiative place xAI au cœur des opérations sensibles de sécurité nationale. L'intégration découle d'un contrat attribué en juillet par le bureau de l'IA du Pentagone à xAI, Google, OpenAI et Anthropic, d'une valeur potentielle allant jusqu'à 200 millions de dollars. Cependant, seules xAI et Anthropic avaient été précédemment approuvées pour un usage classifié, ce qui a préparé le terrain pour une concurrence directe.
L'Examen de la NSA a Signalé des "Préoccupations de Sécurité Particulières" pour Grok
La décision de promouvoir Grok contredit les avertissements internes de plusieurs agences fédérales. Un examen classifié de la National Security Agency (NSA) en novembre 2024 a conclu que Grok posait des "préoccupations de sécurité particulières" non identifiées chez d'autres modèles comme Claude d'Anthropic. Des responsables de la General Services Administration (GSA) ont également tiré la sonnette d'alarme, citant la susceptibilité de Grok à l'empoisonnement et à la manipulation des données. Ces préoccupations étaient suffisamment importantes pour que la GSA suspende l'utilisation de Grok par son propre personnel et que le modèle reste exclu de la plateforme USAi, un environnement de test pour les employés fédéraux. La pression pour adopter Grok, malgré ces signaux d'alarme, a contribué à la récente démission de Matthew Johnson, le chef de l'IA responsable du Pentagone, qui avait souligné les problèmes de sécurité de Grok dans des mémos internes.
Le Pentagone Fait Pression sur Anthropic avec un Ultimatum pour Vendredi
Tout en adoptant xAI, le Département de la Défense confronte simultanément Anthropic concernant ses garde-fous de sécurité plus stricts. Le Secrétaire à la Défense, Pete Hegseth, a émis un ultimatum pour vendredi demandant à Anthropic d'accepter des règles plus souples pour les applications militaires ou de risquer une interdiction potentielle de tout travail gouvernemental. Les directives actuelles d'Anthropic interdisent l'utilisation de son IA pour faciliter la violence, développer des armes ou mener des activités de surveillance. Ce conflit reflète une division politique au sein du gouvernement, où certains hauts fonctionnaires considèrent Anthropic comme "trop woke" et ses positions sur la sécurité comme un obstacle. En revanche, xAI a accepté un langage permettant l'utilisation de ses modèles dans tous les scénarios militaires légaux, ce qui lui confère un avantage critique pour l'obtention de contrats de défense.