La start-up d'IA, soutenue par des milliards de dollars de Google et Amazon, intensifie sa présence politique alors que les batailles réglementaires sur l'intelligence artificielle s'intensifient à Washington.
Retour
La start-up d'IA, soutenue par des milliards de dollars de Google et Amazon, intensifie sa présence politique alors que les batailles réglementaires sur l'intelligence artificielle s'intensifient à Washington.

Anthropic lance un comité d'action politique, AnthroPAC, pour façonner la législation sur l'IA, une initiative qui renforce son engagement à Washington alors qu'elle lutte simultanément contre une ordonnance du Pentagone visant à supprimer les garde-fous éthiques de son modèle d'IA Claude.
« Rien dans la loi ne soutient la notion orwellienne selon laquelle une entreprise américaine peut être qualifiée d'adversaire potentiel et de saboteur des États-Unis pour avoir exprimé son désaccord avec le gouvernement », a écrit la juge de district américaine Rita Lin dans une décision bloquant temporairement l'action du Pentagone. L'administration Trump fait actuellement appel de cette décision.
Le nouveau comité sera financé par des contributions volontaires d'employés plafonnées à 5 000 dollars par an et est enregistré auprès de la Commission électorale fédérale. Cette initiative fait suite à un don de 20 millions de dollars d'Anthropic à Public First Action, un groupe plaidant pour la sécurité de l'IA, et intervient alors que des concurrents comme Google, Microsoft et Amazon ont dépensé collectivement plus de 2,3 millions de dollars via leurs propres PAC en 2024.
Pour Anthropic, qui a construit sa marque sur le développement responsable de l'IA, les dépenses politiques directes deviennent une fonction commerciale cruciale. La formation d'un PAC signale que l'influence sur les résultats réglementaires est désormais aussi importante que le développement technologique, une stratégie qui pourrait offrir un avantage concurrentiel dans un marché où les règles sont encore en cours d'élaboration.
L'initiative d'Anthropic s'inscrit dans une tendance plus large où les grandes entreprises technologiques intensifient leurs opérations politiques pour influencer l'avenir de la réglementation de l'IA. Alors que l'Union européenne a déjà adopté son règlement complet sur l'IA (AI Act), l'attention s'est portée sur l'environnement politique fragmenté des États-Unis. L'industrie de l'IA aurait déjà injecté 185 millions de dollars dans les élections de mi-mandat, reconnaissant que les résultats législatifs définiront la dynamique concurrentielle pour les années à venir.
OpenAI, un rival clé, a régulièrement étendu sa présence à Washington D.C., tandis que les géants historiques ne sont pas étrangers aux dépenses politiques. Google, qui détient une participation importante dans Anthropic, a dépensé environ 12,4 millions de dollars en lobbying pour la seule année 2023, selon les données d'OpenSecrets. En formant son propre PAC, Anthropic va au-delà de la dépendance vis-à-vis des groupes de pression et joue directement la carte de l'influence politique, une étape importante pour une entreprise fondée il y a seulement trois ans, en 2021.
La décision de former un PAC est inséparable du conflit juridique en cours entre Anthropic et l'administration Trump. Le différend a commencé après que l'entreprise a refusé les demandes du Pentagone de supprimer les garde-fous de son modèle d'IA Claude qui interdisent son utilisation dans le développement d'armes entièrement autonomes ou pour la surveillance domestique de masse. En réponse, le ministère de la Défense a désigné Anthropic comme un « risque pour la chaîne d'approvisionnement », une mesure qui interdirait aux sous-traitants du Pentagone d'utiliser sa technologie.
Bien que l'injonction préliminaire de la juge Lin ait apporté un soulagement temporaire, l'appel de l'administration devant la cour du neuvième circuit garantit que le conflit se poursuivra. Ce combat juridique met en lumière la tension centrale pour les entreprises d'IA : équilibrer les engagements éthiques avec les opportunités lucratives des contrats gouvernementaux et de défense. L'issue pourrait créer un précédent majeur sur la manière dont l'armée américaine déploie l'IA et le niveau de contrôle que les développeurs conservent sur leurs créations. Pour les investisseurs, l'affaire teste si une entreprise fondée sur des principes de sécurité peut maintenir sa position éthique face à la pression du gouvernement.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.