Anthropic restreint l'accès à son modèle d'IA le plus puissant, Mythos, et l'utilise avec plus de 40 partenaires, dont Google et Microsoft, pour traquer les failles logicielles avant qu'elles ne soient exploitées.
Retour
Anthropic restreint l'accès à son modèle d'IA le plus puissant, Mythos, et l'utilise avec plus de 40 partenaires, dont Google et Microsoft, pour traquer les failles logicielles avant qu'elles ne soient exploitées.

Anthropic a lancé une vaste initiative de cybersécurité pour déployer son modèle d'IA de pointe non publié, Claude Mythos Preview, contre des logiciels critiques. L'IA a déjà découvert des milliers de vulnérabilités, dont une faille vieille de 27 ans dans l'un des systèmes d'exploitation les plus sécurisés au monde. Cet effort, baptisé Project Glasswing, vise à donner l'avantage aux défenseurs avant que de tels outils de piratage pilotés par l'IA ne deviennent largement accessibles, mais il place les propres pratiques de sécurité d'Anthropic sous une surveillance intense.
« Compte tenu de la vitesse de progression de l'IA, il ne faudra pas longtemps avant que de telles capacités ne prolifèrent, potentiellement au-delà des acteurs engagés dans un déploiement sécurisé », a déclaré Newton Cheng, responsable cyber de la Frontier Red Team chez Anthropic, à VentureBeat. « Les retombées — pour les économies, la sécurité publique et la sécurité nationale — pourraient être graves. »
L'entreprise restreint la diffusion publique du modèle, préférant offrir un accès à un consortium de plus de 40 organisations, dont Amazon, Apple, Google, Microsoft et la Linux Foundation. Lors des premiers tests, Anthropic affirme que Mythos a identifié une vulnérabilité distante vieille de 27 ans dans OpenBSD et une faille de 16 ans dans la bibliothèque vidéo FFmpeg. Sur le benchmark d'évaluation CyberGym, Mythos Preview a obtenu un score de 83,1 %, un bond significatif par rapport aux 66,6 % atteints par Claude Opus 4.6, son deuxième meilleur modèle.
L'initiative vise à modifier l'économie de la cybersécurité, menaçant la viabilité de la recherche manuelle de bugs et forçant un passage vers l'intégration de la sécurité directement dans le cycle de vie du développement logiciel. Le projet, soutenu par un engagement de 100 millions de dollars en crédits d'utilisation du modèle par Anthropic, pourrait faire économiser aux partenaires des milliards en coûts potentiels de violation, un chiffre à mettre en perspective avec le taux de revenus annuels déclarés d'Anthropic de plus de 30 milliards de dollars.
Le volume impressionnant de vulnérabilités découvertes par Mythos présente un défi logistique. Anthropic affirme avoir développé un pipeline de tri pour valider manuellement les bugs de haute sévérité avant de les signaler aux mainteneurs, afin d'éviter de submerger les développeurs open-source bénévoles. L'entreprise fait également don de 4 millions de dollars à des organisations comme l'OpenSSF et l'Apache Software Foundation pour soutenir ces efforts.
« Par le passé, l'expertise en sécurité était un luxe réservé aux organisations dotées de grandes équipes de sécurité », a déclaré Jim Zemlin, PDG de la Linux Foundation, dans un communiqué. « Project Glasswing offre une voie crédible pour changer cette équation. »
Cette version contrôlée intervient alors qu'Anthropic fait face à des questions sur sa propre sécurité opérationnelle. L'existence de Mythos a été révélée après qu'un projet d'article de blog a été laissé dans un stockage de données public non sécurisé. Quelques jours plus tard, l'entreprise a accidentellement publié le code source de son package Claude Code sur npm. Bien qu'Anthropic ait déclaré qu'il s'agissait d'erreurs humaines dans les outils de publication et non de failles de son architecture de sécurité centrale, ces incidents soulèvent des questions sur son rôle de gardien d'une IA qu'elle juge trop dangereuse pour une diffusion publique.
La question centrale est de savoir combien de temps l'avance d'Anthropic durera. Les dirigeants de l'entreprise estiment que des adversaires pourraient développer des capacités similaires en quelques mois, et non en années. L'initiative est donc une course pour corriger les systèmes critiques avant que les outils d'attaque ne prolifèrent. Pour des partenaires comme Microsoft et CrowdStrike, le modèle est déjà utilisé pour renforcer leurs propres bases de code.
Cette initiative affecte l'ensemble du secteur de la sécurité, en particulier les entreprises spécialisées dans la gestion des vulnérabilités et les tests d'intrusion. Si l'IA peut automatiser la découverte à grande échelle pour 125 dollars par million de tokens de sortie, le modèle économique des audits de sécurité menés par des humains sera soumis à une pression importante. Pour les investisseurs, le projet souligne la nature à double usage de l'IA de pointe, où le risque et l'opportunité les plus importants sont les deux faces d'une même pièce. Le marché n'a pas encore intégré les implications défensives et offensives d'une IA capable de trouver et d'exploiter de manière autonome des vulnérabilités logicielles critiques.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.