Dans une extension significative de la surveillance gouvernementale, trois des plus grands développeurs d'IA au monde ont accepté des examens de sécurité avant la sortie de leurs modèles les plus avancés.
Retour
Dans une extension significative de la surveillance gouvernementale, trois des plus grands développeurs d'IA au monde ont accepté des examens de sécurité avant la sortie de leurs modèles les plus avancés.

Dans une démarche qui accroît considérablement la surveillance gouvernementale de l'intelligence artificielle, Google (Alphabet), Microsoft Corp. et xAI ont accepté de fournir leurs modèles d'IA avancés pour une évaluation de sécurité avant leur diffusion publique. Cet accord amène les trois géants technologiques à collaborer avec le Centre pour les normes et l'innovation en IA (CAISI) du département du Commerce des États-Unis, qui dispose déjà d'arrangements similaires avec OpenAI et Anthropic PBC.
« Une science de la mesure indépendante et rigoureuse est essentielle pour comprendre l'IA de pointe et ses implications pour la sécurité nationale », a déclaré Chris Fall, directeur du CAISI, dans un communiqué. « Ces collaborations industrielles élargies nous aident à intensifier notre travail dans l'intérêt public à un moment critique. »
L'agence a précisé que les accords avec OpenAI et Anthropic ont également été renégociés pour s'aligner sur le plan d'action pour l'IA du président Donald Trump. Depuis 2024, le centre a réalisé plus de 40 évaluations de modèles d'IA, dont certains n'ont pas encore été rendus publics. L'inclusion de Google, Microsoft et xAI d'Elon Musk fait suite aux préoccupations croissantes de l'administration concernant les capacités des nouveaux systèmes comme le modèle Mythos d'Anthropic.
Cet accès élargi du gouvernement est une conséquence directe des questions de sécurité nationale soulevées par une IA de plus en plus puissante. L'analyse propre d'Anthropic de son modèle Mythos, qui aurait révélé des milliers de vulnérabilités dans des logiciels et infrastructures critiques, a accéléré les efforts politiques au sein de l'administration Trump. La Maison-Blanche s'est déjà opposée aux projets d'Anthropic d'élargir l'accès à Mythos, et le département de la Défense est en litige juridique avec l'entreprise concernant son statut de risque pour la chaîne d'approvisionnement.
Les accords donnent plus d'autorité au CAISI, un organisme créé sous le nom d'Institut de sécurité de l'IA sous l'administration Biden en 2023 et rétabli par l'administration Trump l'année dernière. Bien que son existence ne soit pas encore codifiée par la loi, le plan d'action pour l'IA de Trump charge le centre de diriger les évaluations de modèles liées à la sécurité nationale. Cela pourrait ouvrir la voie à une nouvelle application des lois existantes alors que les régulateurs explorent comment les appliquer aux systèmes d'IA.
La stratégie de l'administration semble être double. D'une part, il y a une poussée claire pour des examens de sûreté et de sécurité accrus, motivée par le potentiel d'utilisation abusive d'une IA puissante. D'autre part, l'administration Trump a également déclaré son objectif de lever certains garde-fous de sécurité de l'IA afin d'accélérer le déploiement de nouveaux modèles et de garantir que les États-Unis conservent un avantage concurrentiel sur la Chine. Cela crée un exercice d'équilibre délicat entre l'atténuation des risques et la promotion d'une innovation rapide. Les nouveaux accords d'évaluation, ainsi qu'un éventuel décret à venir, représentent la tentative de l'administration de relever ce défi en créant un processus formel d'examen gouvernemental.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.