Le Pentagone met Anthropic sur liste noire suite à un litige de 200 millions de dollars
Le 17 mars 2026, le gouvernement américain a désigné le développeur d'IA Anthropic comme un risque "inacceptable" pour la sécurité nationale et la chaîne d'approvisionnement, une action découlant d'une impasse concernant un contrat de défense de 200 millions de dollars. Le conflit s'est intensifié après le refus d'Anthropic de supprimer les restrictions éthiques sur sa technologie, insistant pour que ses modèles d'IA ne soient pas utilisés pour le déploiement d'armes autonomes ou la surveillance de masse domestique. Dans un document judiciaire, l'administration Trump a défendu cette décision, la présentant comme une question de négociation contractuelle et de sécurité nationale plutôt qu'une violation des droits à la liberté d'expression d'Anthropic. Cette désignation, généralement réservée aux adversaires étrangers, interdit à Anthropic d'accéder à des contrats de défense spécifiques et a été contestée par la société comme étant "sans précédent et illégale".
Anthropic poursuit en justice alors que l'étiquette de risque menace des milliards de contrats
En réponse, Anthropic a intenté plusieurs procès contre le gouvernement américain, cherchant à bloquer la mise sur liste noire du Pentagone. La société, qui a une valorisation de 380 milliards de dollars et un revenu annuel de 14 milliards de dollars, affirme que cette désignation est une mesure de représailles et est entachée de vices de procédure. Anthropic prétend que cette décision pourrait lui coûter des milliards de dollars en contrats perdus, car l'étiquette de "risque pour la chaîne d'approvisionnement" crée une incertitude significative pour ses clients gouvernementaux et commerciaux. Les répercussions se font déjà sentir sur le marché, les clients du secteur de la technologie juridique procédant à des examens prioritaires de leur dépendance aux modèles d'Anthropic. Cette incertitude oblige les entreprises à évaluer des modèles d'IA alternatifs de concurrents comme OpenAI et Google, ce qui pourrait entraîner une baisse de performance pour ceux qui considèrent le Claude d'Anthropic comme le modèle supérieur pour les tâches spécialisées.
Le conflit éthique de l'IA crée une incertitude généralisée dans l'industrie
Ce conflit met en évidence une tension croissante entre les principaux développeurs d'IA et les agences gouvernementales concernant l'application militaire de l'intelligence artificielle. Alors qu'Anthropic a adopté une position éthique ferme, son rival OpenAI aurait négocié son propre contrat avec le Pentagone après avoir initialement souscrit à la position d'Anthropic. La situation crée une imprévisibilité dans tout l'écosystème de l'IA, affectant les entreprises qui construisent des services basés sur ces modèles fondamentaux.
Lorsque le gouvernement désigne une entreprise d'IA américaine de premier plan comme un risque pour la sécurité nationale, cette incertitude ne reste pas confinée – elle se propage à travers l'ensemble de l'écosystème.
— Thomas Bueler-Faudree, PDG d'August.
Malgré la bataille juridique en cours, certains initiés de l'industrie restent optimistes, prédisant que la querelle est temporaire. Ils croient que les parties finiront par trouver un moyen de travailler ensemble, citant des précédents où des entreprises technologiques ont réussi à poursuivre le gouvernement et sont ensuite devenues des partenaires clés.