OpenAI intensifie la course aux armements de l'intelligence artificielle dans la cybersécurité, annonçant une version limitée de son modèle GPT-5.4-Cyber une semaine seulement après une initiative similaire de son rival Anthropic. Le nouveau modèle, conçu pour découvrir les vulnérabilités logicielles, défie directement le modèle Mythos d'Anthropic et signale un nouveau front concurrentiel pour les capacités à double usage de l'IA.
« Anthropic a bâti sa réputation sur le fait d'être l'entreprise d'IA privilégiant la sécurité, donc des annonces comme celle-ci servent deux objectifs : une véritable prudence et le signalement de sa position soucieuse de la sécurité », a déclaré Jake Moore, spécialiste mondial de la cybersécurité chez ESET, à Business Insider, commentant la tendance récente. Ces annonces en duel soulignent la tension entre l'avancement de la sécurité et le risque d'armer les attaquants.
Le modèle d'OpenAI sera mis à la disposition de plusieurs centaines d'utilisateurs dans le cadre de son programme « Trusted Access for Cyber ». Cela fait suite à la sortie plus restrictive par Anthropic de son modèle Mythos à seulement 11 organisations, dont Google, Microsoft et JPMorganChase, dans le cadre de son « Projet Glasswing ». Anthropic a affirmé que son modèle était si puissant que des non-experts pourraient l'utiliser pour exploiter des systèmes d'exploitation majeurs.
Ce lancement accélère la formation d'un nouveau marché pour la détection des vulnérabilités pilotée par l'IA, mais la nature à double usage des outils crée de l'incertitude et attire une potentielle surveillance réglementaire. Bien que prometteuse pour le développement de l'IA, la concurrence pourrait peser sur les valorisations et les feuilles de route stratégiques des entreprises des secteurs de l'IA et de la cybersécurité.
Le débat sur la cybersécurité : Battage médiatique ou Danger ?
Les annonces successives ont intensifié le débat parmi les experts. Certains, comme le chercheur en IA Gary Marcus, estiment que la menace est « exagérée », considérant les nouveaux modèles comme « progressivement meilleurs » plutôt que comme des percées révolutionnaires. Yann LeCun, scientifique en chef de l'IA chez Meta, a qualifié le « drame Mythos » de « foutaises issues de l'auto-illusion ».
À l'inverse, d'autres y voient un changement fondamental. Ben Seri, cofondateur de la startup de cybersécurité Zafran Security, a décrit cela comme « le moment Projet Manhattan de la cybersécurité », arguant que la menace est réelle et immédiate, même si le potentiel défensif mettra plus de temps à se concrétiser. Le défi central, a-t-il noté, n'est pas seulement de trouver des vulnérabilités plus rapidement, mais de déployer des correctifs en toute sécurité et à grande échelle.
Ce point de vue est partagé par les préoccupations des responsables fédéraux et des dirigeants de Wall Street, qui se sont réunis après l'annonce d'Anthropic pour discuter des implications. T.J. Marlin, PDG de Guardrail Technologies, a suggéré que la réunion garantit que les PDG de banques ne pourront pas plaider l'ignorance en cas de faille de sécurité majeure.
Certains experts soutiennent que l'accent mis sur les attaques alimentées par l'IA occulte une vision plus globale. Pablos Holman, investisseur en capital-risque chez Deep Future, a déclaré que les défenseurs de la cybersécurité en bénéficieront davantage, car ils disposeront des mêmes outils d'IA, de plus de ressources et d'un accès au code source. « C'est toujours une guerre d'escalade, mais maintenant le défenseur a l'avantage », a écrit Holman. « La sécurité est sur le point de s'améliorer. Pas de s'empirer. »
Cet article est uniquement à titre informatif et ne constitue pas un conseil en investissement.