Le DOJ qualifie les « acquihires » d'IA de « signal d'alarme » pour l'évasion antitrust
Le ministère américain de la Justice intensifie son examen de l'expansion des géants de la technologie dans l'intelligence artificielle, avec son principal responsable antitrust ciblant explicitement une pratique courante de l'industrie. Le 18 mars 2026, le chef de division a déclaré à Reuters que les "acquihires" – des accords structurés principalement pour acquérir des talents auprès de startups d'IA – sont un "signal d'alarme". Cette déclaration signale une position réglementaire plus agressive visant à empêcher les entreprises dominantes de contourner les examens antitrust par le biais de transactions qui ne constituent pas une fusion complète. L'avertissement introduit une incertitude significative pour les futures transactions technologiques et pourrait freiner l'activité de fusion-acquisition, en particulier pour les grandes entreprises qui dépendent des acquisitions pour leur croissance et leur innovation.
La surveillance s'intensifie après l'accord de 20 milliards de dollars de Nvidia avec Groq
L'avertissement du DOJ arrive sur un marché défini par des transactions massives axées sur l'IA. Un exemple éminent est l'accord rapporté de 20 milliards de dollars de Nvidia pour la licence de technologie de la startup de puces Groq et l'embauche d'employés clés, y compris son PDG. Notamment, Nvidia n'a pas acquis l'entreprise entière, un mouvement qui pourrait avoir été conçu pour éviter une longue enquête antitrust. Ce type de transaction, qui garantit une propriété intellectuelle critique et des talents en ingénierie sans fusion formelle, illustre la stratégie exacte actuellement dans le viseur du DOJ. La déclaration suggère que les régulateurs regarderont au-delà de la structure formelle d'un accord pour évaluer son impact concurrentiel, en particulier son effet sur le marché des talents spécialisés en IA.
Une répression plus large observée dans la bataille juridique d'Anthropic
Cet avertissement verbal est étayé par des actions concrètes dans d'autres domaines, montrant un modèle de pression gouvernementale accrue sur le secteur de l'IA. Le ministère de la Justice est actuellement engagé dans une bataille juridique à enjeux élevés avec le développeur d'IA Anthropic, arguant devant les tribunaux que la société ne peut pas être fiable pour les contrats de défense en raison de préoccupations de sécurité nationale. Le gouvernement cherche à interdire à Anthropic de participer aux systèmes militaires, une mesure qui pourrait coûter à l'entreprise des milliards de dollars de revenus prévus. Cette affaire démontre la volonté du DOJ d'utiliser des arguments juridiques puissants pour affirmer son contrôle sur l'industrie technologique, allant au-delà des préoccupations antitrust traditionnelles pour aborder les questions de sécurité nationale et d'intégrité de la chaîne d'approvisionnement. Pour les investisseurs, cela signale une nouvelle couche de risque réglementaire pour les entreprises opérant à l'intersection de la technologie et du gouvernement.