La Maison Blanche Vise à Remplacer 50 Lois d'État par une Règle Fédérale Unique
L'administration Trump a formellement envoyé au Congrès un projet de loi pour une politique nationale d'intelligence artificielle, avec pour objectif central d'établir l'autorité fédérale sur la gouvernance de l'IA. Le cadre cherche à anticiper le "patchwork fragmenté de réglementations étatiques" qui a commencé à émerger alors que des États comme la Californie et le Colorado élaborent leurs propres lois sur l'IA. En créant une norme nationale unique, l'administration soutient qu'elle peut réduire l'incertitude juridique et diminuer les coûts de conformité pour les développeurs, accélérant ainsi le déploiement des systèmes d'IA à travers les États-Unis.
Cette stratégie est conçue pour empêcher la solidification d'un système à 50 États, ce qui pourrait créer des obstacles opérationnels importants pour les entreprises opérant à l'échelle nationale. La proposition ordonne au Congrès d'affirmer le contrôle fédéral et d'établir Washington comme l'autorité principale pour la politique de l'IA, privant ainsi efficacement les États de leur pouvoir de réglementer le développement de l'IA. Cependant, le cadre permet aux États de conserver leurs pouvoirs traditionnels, tels que l'application des lois générales contre l'utilisation abusive de l'IA ou la gestion du zonage pour les infrastructures comme les centres de données.
Le Cadre Favorise l'Innovation Sans Nouvel Organisme de Réglementation de l'IA
La proposition promeut une approche réglementaire "minimale" et légère pour garantir que les États-Unis restent leaders mondiaux en matière d'innovation en IA. Une directive clé au Congrès est d'éviter de créer un nouvel organisme fédéral de réglementation dédié à l'IA. Au lieu de cela, l'administration encourage l'exploitation de l'expertise des organismes de réglementation existants pour les applications sectorielles spécifiques et la promotion de normes dirigées par l'industrie.
Cette position de déréglementation s'étend à l'application, où le cadre privilégie un système axé sur la responsabilité plutôt que des approbations préalables à la mise sur le marché. En confiant la résolution des préjudices liés à l'IA aux tribunaux, la politique s'appuie sur le litige pour façonner les normes au fil du temps. Cette approche pourrait bénéficier aux grandes entreprises technologiques disposant des ressources juridiques nécessaires pour naviguer dans les risques de responsabilité, accélérant potentiellement la consolidation au sein du secteur de l'IA, les petites entreprises étant confrontées à une plus grande incertitude.
Droit d'Auteur et Droits des Créateurs Laissés aux Tribunaux
Concernant la question litigieuse de la propriété intellectuelle, l'administration adopte une approche prudente. Le cadre reconnaît les litiges juridiques en cours entre créateurs et développeurs d'IA concernant l'utilisation de matériel protégé par le droit d'auteur pour l'entraînement des modèles d'IA. Il conseille explicitement au Congrès de laisser les tribunaux résoudre si cette pratique constitue une "utilisation équitable" plutôt que de légiférer une solution. Cependant, il suggère que le Congrès pourrait permettre des systèmes de licences collectives pour aider les titulaires de droits à négocier des compensations avec les fournisseurs d'IA.
Au-delà du droit d'auteur, la politique aborde d'autres domaines clés. Elle appelle à un cadre fédéral pour protéger les individus contre l'utilisation commerciale non autorisée de répliques numériques générées par l'IA de leur voix et de leur image, avec des exceptions pour la parodie et l'information. L'administration inscrit également la réglementation de l'IA dans la doctrine constitutionnelle, suggérant que les règles contraignant les sorties de l'IA pourraient soulever des préoccupations concernant la liberté d'expression du premier amendement, une démarche qui pourrait limiter considérablement la portée des futures réglementations en matière de contenu et d'atténuation des biais.