(P1) Anthropic a annoncé le 7 avril un aperçu limité de son modèle Claude Mythos Preview, un système d'IA excellant dans l'identification des vulnérabilités logicielles, à un groupe restreint d'environ 40 entreprises. Le groupe comprend les géants technologiques Microsoft, Amazon et Apple aux côtés des leaders de la cybersécurité CrowdStrike et Palo Alto Networks, qui utiliseront le modèle pour des travaux de sécurité défensive.
(P2) Cette initiative reflète un consensus croissant selon lequel la défense contre les attaques pilotées par l'IA nécessite des outils alimentés par l'IA. « C'est le plus grand changement jamais vu dans l'environnement cybernétique », a déclaré Francis deSouza, directeur de l'exploitation et président des produits de sécurité chez Google Cloud, lors d'une récente interview au New York Times sur le sujet. « Il faut combattre l'IA par l'IA. »
(P3) La cohorte initiale d'utilisateurs de Claude Mythos Preview représente une concentration significative de l'infrastructure technologique et de l'appareil de sécurité mondial. En fournissant cet outil à des firmes comme Microsoft, Amazon et Apple, Anthropic place son nouveau modèle défensif au cœur des écosystèmes les plus ciblés par des attaquants sophistiqués.
(P4) Cette initiative souligne la nature à double usage de l'IA avancée, qui peut être utilisée tant pour l'offensive que pour la défense. Alors que les acteurs malveillants détournent de plus en plus les services d'IA à des fins néfastes, le développement de modèles défensifs spécialisés comme Mythos devient critique pour maintenir la sécurité, augmentant potentiellement la valeur des entreprises de cybersécurité équipées de ces outils de nouvelle génération.
Un nouvel outil dans la course aux armements de l'IA
La sortie de Mythos intervient alors que les attaquants « vivent de plus en plus sur le terrain de l'IA », détournant des modèles d'IA commerciaux légitimes pour orchestrer des attaques. Des chercheurs en sécurité ont documenté des cas où des acteurs malveillants ont utilisé les propres modèles Claude d'Anthropic pour du cyber-espionnage et ont abusé de l'API OpenAI Assistants pour créer des canaux de commande et de contrôle secrets, selon un rapport récent de CSO Online. Ces techniques permettent de camoufler le trafic malveillant en activité IA normale, contournant ainsi les contrôles de sécurité traditionnels.
La stratégie d'Anthropic avec Mythos est une réponse directe à cette menace évolutive, offrant aux défenseurs un outil sur mesure pour trouver et corriger proactivement les mêmes types de failles que les attaquants s'empressent d'exploiter. Le modèle est conçu pour automatiser et accélérer le travail des chercheurs en sécurité, leur permettant de sécuriser les systèmes plus rapidement que les hackers ne peuvent les briser.
Déploiement contrôlé et impact sur les investisseurs
La décision d'Anthropic de limiter le déploiement initial à une liste vérifiée de 40 entreprises souligne les risques inhérents à un outil aussi puissant. Une IA exceptionnellement douée pour trouver des faiblesses de sécurité pourrait être une arme entre de mauvaises mains. Ce lancement contrôlé permet à l'entreprise de recueillir des données sur ses performances dans des scénarios défensifs réels tout en minimisant les risques d'abus.
Pour les investisseurs, ce développement pourrait avoir un impact positif sur les actions de la cybersécurité. Des entreprises comme CrowdStrike et Palo Alto Networks, qui font partie du groupe d'accès initial, sont en mesure de renforcer leurs capacités défensives, augmentant potentiellement l'efficacité de leurs plateformes et créant un avantage concurrentiel. Le marché est optimiste quant à l'application de l'IA dans la sécurité, et le déploiement réussi de modèles comme Mythos pourrait renforcer la thèse selon laquelle les plateformes de sécurité natives de l'IA surpasseront les fournisseurs historiques.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.