Anthropic abandonne un engagement de sécurité clé pour rester compétitif
Anthropic, la société d'IA évaluée à 380 milliards de dollars, a officiellement abandonné le pilier central de sa politique de mise à l'échelle responsable. Dans un article de blog mardi, la société a annulé son engagement de 2023 à interrompre le développement de l'IA si elle ne pouvait garantir que ses mesures de sécurité étaient adéquates. Cette décision marque un départ spectaculaire de l'identité "la sécurité d'abord" qui la distinguait de ses concurrents. Le directeur scientifique Jared Kaplan a déclaré que l'entreprise ne pouvait pas prendre d'engagements unilatéraux de pause "si les concurrents avancent à toute vitesse", signalant un changement stratégique vers l'élan commercial plutôt que la pureté idéologique.
Ce pivot fait suite à une période de succès commercial significatif, Anthropic rapportant que son chiffre d'affaires annualisé augmente à un rythme de 10 fois par an. La décision la rapproche de rivaux comme OpenAI, qui a également mis à jour sa mission en 2024 pour dévaloriser la sécurité dans sa charte publique. Les deux sociétés se prépareraient à des introductions en bourse, espérant capitaliser sur l'intérêt intense des investisseurs. Le changement de politique d'Anthropic dissout un principe fondamental établi lorsque le PDG Dario Amodei a quitté OpenAI en 2020, citant des préoccupations selon lesquelles son ancienne entreprise privilégiait la vitesse à la sécurité.
Le Pentagone menace d'un accès forcé à la technologie avec une date limite fixée à vendredi
Le revirement de politique d'Anthropic coïncide avec un grave différend avec le Département de la Défense des États-Unis. Lors d'une réunion tendue mardi, le secrétaire à la Défense Pete Hegseth a donné au PDG Dario Amodei un ultimatum : accorder aux militaires un accès illimité à son modèle d'IA Claude d'ici vendredi ou faire face à de lourdes sanctions. Le Pentagone a menacé d'invoquer la loi sur la production de défense, une loi de l'ère de la Guerre froide, pour forcer la société à se conformer. Il a également averti qu'il pourrait déclarer Anthropic un "risque pour la chaîne d'approvisionnement", une décision qui compliquerait ses contrats à travers l'industrie.
Le conflit découle de la demande du Pentagone d'utiliser l'IA à "toutes fins légales", ce qui contredit les lignes rouges déclarées d'Anthropic contre l'utilisation de sa technologie pour des armes autonomes ou la surveillance de masse. Malgré les menaces, le Pentagone reconnaît sa dépendance au modèle Claude, qui est utilisé pour ses travaux les plus sensibles. Un responsable de la Défense a noté : "La seule raison pour laquelle nous parlons encore à ces gens est que nous en avons besoin et que nous en avons besoin maintenant." Cette dynamique place Anthropic dans une position de négociation précaire mais puissante à l'approche de la date limite.