Un décret potentiel de l'administration Trump menace de bouleverser son agenda technologique favorable à l'industrie, à la suite d'un avertissement privé selon lequel un nouveau modèle d'IA d'Anthropic pourrait poser un risque important de cybersécurité pour les infrastructures critiques du pays. Cette initiative marque un revirement chaotique par rapport à l'accent mis précédemment par l'administration sur la déréglementation pour gagner la course à l'IA contre la Chine.
« Nous devons tous travailler ensemble sur ce point », a déclaré le vice-président JD Vance à des PDG, dont Sam Altman d'OpenAI, Dario Amodei d'Anthropic, et les dirigeants de Google et Microsoft lors d'un récent appel, selon des personnes proches du dossier.
L'alarme a été donnée concernant le modèle « Mythos » d'Anthropic, qui a démontré une capacité avancée à trouver de manière autonome des vulnérabilités logicielles. En réponse, la Maison Blanche aurait demandé à Anthropic de suspendre l'extension de l'accès à Mythos et a chargé le directeur national de la cybersécurité, Sean Cairncross, de diriger la réponse. Cela fait suite aux décisions de plusieurs grands laboratoires, dont Google, Microsoft et xAI, de travailler volontairement avec le Center for AI Standards and Innovation (CAISI) du département du Commerce pour une évaluation avant déploiement.
La possibilité d'un nouveau cadre fédéral plus restrictif introduit une incertitude réglementaire importante pour l'ensemble du secteur de l'IA, menaçant de ralentir le rythme du développement et d'ajouter des coûts de conformité pour des entreprises comme Microsoft (MSFT) et Alphabet (GOOGL), qui ont investi des milliards de dollars dans cette technologie.
Un changement à Washington
L'intérêt soudain de l'administration pour la sécurité de l'IA marque un pivot brutal. Pas plus tard qu'en février, le vice-président Vance avait averti lors d'un sommet mondial à Paris qu'une réglementation excessive pourrait tuer l'industrie naissante. La nouvelle posture a été saluée par les partisans de la sécurité de l'IA mais a créé des frictions au sein de l'administration. Le conseiller de la Maison Blanche et investisseur en capital-risque David Sacks a publiquement minimisé le risque, déclarant dans un podcast : « Les gens traitent cela comme une menace existentielle. Je ne pense pas que ce soit le cas. »
À l'inverse, le directeur du Conseil économique national, Kevin Hassett, a alimenté les critiques des alliés de l'administration en comparant la surveillance potentielle au processus de la Food and Drug Administration (FDA) pour l'approbation de nouveaux médicaments. « Importer l'approche de la FDA dans l'IA bouleverserait la politique actuelle du président Trump en faveur de la croissance de l'IA », a déclaré Neil Chilson, responsable de la politique de l'IA à l'Abundance Institute. La chef de cabinet de la Maison Blanche, Susie Wiles, a semblé repousser une approche autoritaire, publiant sur X que l'objectif de l'administration est de donner du pouvoir aux « grands innovateurs américains, pas à la bureaucratie ».
L'industrie face à l'incertitude
Le débat laisse l'industrie de l'IA dans une position précaire. Anthropic, qui avait précédemment prôné des garde-fous fédéraux, voit maintenant son modèle le plus puissant au centre d'une tempête politique. OpenAI a également consulté l'administration sur son propre modèle cyber avancé, GPT-5.5-Cyber, et limite également l'accès.
Pour les investisseurs, la situation introduit une nouvelle couche de risque politique dans un secteur déjà défini par des dépenses en capital élevées et une concurrence intense. Bien qu'un organisme de surveillance formel puisse standardiser les protocoles de sécurité, il pourrait également créer un goulot d'étranglement bureaucratique, ralentissant le délai de mise sur le marché des nouveaux modèles de leaders comme Google, Microsoft et OpenAI. L'issue du débat interne à la Maison Blanche déterminera si les États-Unis poursuivront leur approche souple ou s'ils construiront un nouveau fossé réglementaire autour de leur IA la plus avancée.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.