Le revirement potentiel de l'administration Trump sur la réglementation de l'IA pourrait affecter le déploiement de nouveaux modèles puissants et créer de nouveaux obstacles pour les géants de la technologie.
Retour
Le revirement potentiel de l'administration Trump sur la réglementation de l'IA pourrait affecter le déploiement de nouveaux modèles puissants et créer de nouveaux obstacles pour les géants de la technologie.

L'administration Trump envisage un changement de politique important qui exigerait une surveillance gouvernementale des modèles d'intelligence artificielle avant leur diffusion publique, une décision qui pourrait remodeler le paysage concurrentiel du développement de l'IA aux États-Unis. Ce revirement potentiel par rapport à une approche précédemment non interventionniste intervient alors que les responsables sont confrontés aux implications de nouveaux modèles puissants tels que Mythos d'Anthropic, que l'entreprise a gardé privé en raison de ses capacités avancées à identifier les vulnérabilités de sécurité logicielle.
Selon des responsables américains, la Maison-Blanche discute d'un décret visant à créer un groupe de travail composé de cadres de la technologie et de responsables gouvernementaux pour définir les procédures d'examen des nouveaux modèles d'IA. De hauts responsables de l'administration ont déjà informé les dirigeants d'Anthropic, de Google et d'OpenAI de certains de ces plans lors de réunions la semaine dernière. Cela marque un pivot brutal par rapport à la position antérieure de l'administration, qui avait vu l'annulation des exigences d'évaluation de la sécurité de l'IA de l'ère Biden afin de favoriser la compétitivité des États-Unis face à la Chine.
Le catalyseur immédiat de cette reconsidération semble être le développement de Mythos par Anthropic. La startup basée à San Francisco a décrit le potentiel du modèle pour un affrontement en matière de cybersécurité comme une raison de ne pas le diffuser publiquement. Cela a soulevé des inquiétudes au sein de l'administration quant au potentiel d'une cyberattaque dévastatrice assistée par l'IA. L'administration évalue également le potentiel d'utilisation de modèles avancés par le Pentagone et les agences de renseignement.
Le changement de politique est piloté par la chef de cabinet de la Maison-Blanche Susie Wiles et le secrétaire au Trésor Scott Bessent, qui ont pris un rôle plus actif dans l'élaboration de la politique d'IA suite au départ de David Sacks, un initié de la Silicon Valley partisan de la déréglementation. Cependant, leurs efforts sont compliqués par un différend juridique en cours entre Anthropic et le Pentagone au sujet d'un contrat de 200 millions de dollars et des conditions d'utilisation de l'IA par l'armée américaine. Le marché pour la question « Anthropic fournira-t-il Mythos au gouvernement américain d'ici le 30 avril 2026 ? » est actuellement coté à 100 % OUI, mais ces nouvelles discussions réglementaires pourraient introduire de l'incertitude.
Le groupe de travail proposé serait également chargé de déterminer quelles agences américaines auraient des responsabilités de surveillance. Les suggestions incluent la National Security Agency (NSA), le Bureau du directeur national de la cybersécurité de la Maison-Blanche et le directeur du renseignement national. Certains ont même proposé de relancer le Centre pour les normes et l'innovation en matière d'IA de l'ère Biden. Cette initiative reflète les processus réglementaires annoncés par les régulateurs britanniques, qui confient la surveillance de l'IA aux organismes gouvernementaux concernés.
Pour les investisseurs, ce changement potentiel de la politique américaine en matière d'IA introduit une nouvelle couche de risque réglementaire pour les entreprises à la pointe du développement de l'IA, notamment OpenAI (soutenue par Microsoft), Google et Anthropic. Alors que la politique précédente de déréglementation était considérée comme une aubaine pour l'innovation rapide, l'introduction d'un examen préalable à la diffusion pourrait ralentir les cycles de développement et augmenter les coûts de conformité. Le marché n'a pas encore pleinement intégré ces préoccupations, mais toute annonce formelle de la Maison-Blanche pourrait entraîner une volatilité des valeurs technologiques. L'impact à long terme dépendra des détails du processus d'examen et de sa capacité à trouver un équilibre entre la promotion de l'innovation et l'atténuation des risques liés à une IA avancée.
Cet article est uniquement à titre informatif et ne constitue pas un conseil en investissement.