Plusieurs agences fédérales américaines testent secrètement le nouveau modèle d'IA Mythos d'Anthropic, défiant une interdiction de la Maison Blanche imposée après que l'entreprise a refusé de permettre l'utilisation de sa technologie pour des armes autonomes létales. La capacité du modèle à trouver des failles logicielles critiques a créé un conflit aigu entre l'administration et ses propres besoins en matière de cybersécurité.
« J'espère vraiment que la tension actuelle entre le Pentagone et Anthropic ne fera pas obstacle à l'avancement de travaux essentiels à la cybersécurité », a déclaré Glen Gerstell, ancien conseiller juridique général de la National Security Agency (NSA).
L'AI Standard and Innovation Center (CAISI) du département du Commerce mène une évaluation de type « red team » de Mythos. Le département du Trésor chercherait également à utiliser le modèle pour identifier des vulnérabilités réseau. Cela fait suite au refus de Dario Amodei, PDG d'Anthropic, en février dernier, de laisser le Pentagone utiliser ses modèles pour des attaques autonomes, ce qui a déclenché l'interdiction.
L'impasse met en lumière un dilemme de sécurité nationale crucial : le gouvernement s'empêche d'utiliser un outil de cybersécurité révolutionnaire provenant d'une entreprise nationale. Anthropic prédisant l'émergence de modèles concurrents similaires d'ici deux ans, les États-Unis risquent de prendre du retard dans la course à la cybersécurité pilotée par l'IA, laissant potentiellement des infrastructures critiques vulnérables.
Un gouvernement en conflit
Malgré l'interdiction officielle, qui désigne Anthropic comme un « risque pour la chaîne d'approvisionnement », les experts gouvernementaux en cybersécurité vont de l'avant. Selon quatre personnes proches du dossier, les chercheurs du CAISI ont commencé à tester les capacités offensives de Mythos avant même son annonce publique. Un responsable d'Anthropic a confirmé avoir fourni le modèle au gouvernement pour des « tests autonomes et une évaluation technique », bien qu'aucune agence n'ait été nommée dans les déclarations publiques de l'entreprise.
« Le gouvernement des États-Unis essaie d'interdire au gouvernement l'utilisation des produits Anthropic — et quelques semaines plus tard, l'entreprise sort un produit révolutionnaire profondément important pour la cybersécurité », a déclaré Charlie Bullock, chercheur principal au Law & AI Institute. La pression politique a créé un effet de dissuasion, un ancien responsable de la sécurité nationale affirmant que les agences ont peur de s'engager ouvertement avec Anthropic. Un assistant parlementaire a déclaré que le Pentagone « s'est tiré une balle dans le pied tout en faisant un doigt d'honneur à ses fournisseurs d'IA les plus compétents ».
Une menace imminente
Anthropic limite la diffusion de Mythos à une sélection d'entreprises de technologie et de cybersécurité, jugeant son pouvoir de découverte et d'exploitation de vulnérabilités logicielles inconnues trop risqué pour un accès public. L'avertissement de deux ans de l'entreprise concernant la prolifération d'outils similaires suggère qu'une future vague de cyberattaques sophistiquées, pilotées par l'IA, pourrait être imminente. Cela place le gouvernement américain dans une course contre la montre que ses propres conflits internes compliquent.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.