OpenAI fait marche arrière le 2 mars et modifie le contrat d'IA du Pentagone
OpenAI révise de toute urgence son nouveau contrat d'IA avec le Pentagone américain, signé le 27 février, pour interdire explicitement l'utilisation de ses modèles à des fins de surveillance domestique des citoyens américains. Cet amendement, annoncé le 2 mars, fait suite à d'intenses réactions négatives du public et de ses propres employés après que l'entreprise ait conclu un accord pour que ses modèles soient utilisés dans des opérations militaires classifiées.
Le PDG Sam Altman a publiquement concédé que l'entreprise avait agi trop rapidement, déclarant que le lancement de l'accord était "précipité" et semblait "opportuniste et hâtif". Les termes révisés excluront également temporairement les agences de renseignement comme la National Security Agency de l'utilisation de la technologie. Ce revirement rapide souligne les risques opérationnels et de réputation importants auxquels les entreprises d'IA sont confrontées lorsqu'elles naviguent dans les partenariats militaires.
Anthropic perd des contrats fédéraux après l'échec des négociations avec le Pentagone
L'accord d'OpenAI a été finalisé quelques heures seulement après que son principal rival, Anthropic, ait vu ses propres négociations avec le Pentagone s'effondrer. Le PDG d'Anthropic, Dario Amodei, a refusé de supprimer deux "lignes rouges" éthiques d'un accord potentiel : une interdiction d'utiliser son IA pour la surveillance de masse domestique et pour les armes autonomes létales. Le Pentagone, sous la direction du secrétaire à la Défense Pete Hegseth, avait insisté pour que le modèle soit disponible pour "tous les usages légaux".
L'échec a déclenché des représailles gouvernementales rapides. Le lundi 2 mars, l'administration Trump a désigné Anthropic comme un "risque pour la chaîne d'approvisionnement" et a ordonné la résiliation de ses contrats existants avec le Département du Trésor, l'Agence fédérale de financement du logement et les géants du crédit hypothécaire Fannie Mae et Freddie Mac. Cette action signale un nouveau niveau de risque politique pour les entreprises d'IA qui défient les demandes du gouvernement.
Claude dépasse ChatGPT dans l'App Store alors que la réaction s'intensifie
La controverse a immédiatement eu un impact sur la dynamique du marché et le sentiment des utilisateurs. Suite à l'accord d'OpenAI avec le Pentagone, une campagne de boycott menée par les utilisateurs a gagné du terrain, propulsant le chatbot "Claude" d'Anthropic devant le ChatGPT d'OpenAI pour devenir l'application gratuite la plus téléchargée sur l'App Store d'Apple.
La réaction du marché souligne un défi croissant pour les investisseurs dans le secteur de l'IA : équilibrer les contrats gouvernementaux lucratifs avec des risques éthiques et de réputation importants. Les actions punitives du gouvernement américain contre Anthropic créent un environnement volatil, forçant les entreprises à peser leurs principes éthiques contre la perte potentielle de revenus fédéraux majeurs.