Erreur de configuration : 3 000 fichiers sur la nouvelle IA d'Anthropic fuitent
Une défaillance opérationnelle significative chez Anthropic a entraîné la fuite accidentelle de son modèle d'intelligence artificielle de nouvelle génération. Le 26 mars, un système de gestion de contenu (CMS) mal configuré a rendu publics environ 3 000 actifs internes non publiés. Les documents ont révélé l'existence de 'Claude Mythos', un nouveau modèle phare développé sous le nom de code interne 'Capybara'.
Les documents préliminaires divulgués positionnent 'Capybara' comme une nouvelle catégorie au-dessus du modèle haut de gamme actuel de l'entreprise, Opus. Les fichiers décrivent le nouveau modèle comme un 'saut générationnel', affirmant qu'il obtient des 'scores considérablement plus élevés' que le modèle Claude Opus 4.6 lors de tests de programmation logicielle, de raisonnement académique et de cybersécurité. Un porte-parole d'Anthropic a confirmé que l'entreprise développe un modèle avec des 'avancées significatives' mais procède avec prudence compte tenu de sa puissance.
Le nouveau modèle pose un risque de cyberattaque 'sans précédent'
Les gains de performance sont éclipsés par de sévères avertissements internes concernant les implications du modèle en matière de sécurité. Les documents préliminaires divulgués décrivent les capacités offensives de Claude Mythos comme 'dépassant de loin' tout autre modèle d'IA actuel. L'évaluation propre de l'entreprise a conclu que la technologie pourrait permettre une nouvelle vague de cyberattaques où la 'vitesse d'exploitation dépassera de loin la capacité de réaction des défenseurs'.
Cette préoccupation est amplifiée par un paysage de sécurité où les criminels utilisent déjà l'IA pour exécuter des compromissions de systèmes en moins de 30 minutes. La puissance exceptionnelle de 'Capybara' représente une escalade majeure de cette menace. En réponse, Anthropic prévoit de renoncer à une publication publique générale pour le moment. Au lieu de cela, elle fournira un accès anticipé principalement aux organisations de cybersécurité pour les aider à 'prendre de l'avance sur la vague d'exploits alimentés par l'IA à venir' et à renforcer leurs propres systèmes.