Nebius, fournisseur de cloud soutenu par Nvidia, a accepté d'acquérir Eigen AI pour environ 643 millions de dollars, une initiative visant à réduire le coût de l'inférence de l'intelligence artificielle et à défier les acteurs établis sur le marché concurrentiel du cloud.
La transaction, payable en numéraire et en actions de classe A, est conçue pour renforcer la Nebius Token Factory en tant que plateforme de premier plan pour l'inférence d'IA, selon l'annonce du 1er mai.
Eigen, une startup californienne de 20 personnes fondée par des anciens d'un laboratoire d'IA du MIT, est spécialisée dans l'optimisation des performances des principaux modèles d'IA open-source de Meta Platforms Inc., OpenAI et d'autres. Sa technologie se concentre sur la maximisation de la production de tokens — les unités de données de base dans les modèles d'IA — à partir de chaque puce Nvidia Corp., s'attaquant directement aux coûts élevés associés à l'exploitation de grands modèles de langage.
L'acquisition intervient alors qu'un rallye des actions de semi-conducteurs continue de porter le marché, les investisseurs injectant des capitaux dans l'infrastructure des centres de données d'IA. Ce mouvement montre une tendance croissante à la consolidation et à l'intégration verticale dans la chaîne d'approvisionnement de l'IA, alors que les entreprises cherchent à construire des avantages concurrentiels dans la course à enjeux élevés pour dominer le développement et le déploiement de l'IA.
La course à l'inférence efficace
L'accord souligne l'importance critique de l'« inférence », le processus consistant à utiliser un modèle d'IA entraîné pour générer des prédictions ou du nouveau contenu, qui représente une part importante du coût opérationnel des services d'IA. En acquérant Eigen, Nebius parie qu'une efficacité supérieure peut devenir un différenciateur clé contre les grands fournisseurs de cloud comme Amazon Web Services, Microsoft Azure et Google Cloud.
Le logiciel d'Eigen travaille à optimiser l'utilisation des GPU Nvidia, la norme de l'industrie pour les charges de travail d'IA. Alors que l'argent continue d'affluer dans la construction de nouveaux centres de données pour alimenter l'IA, la capacité à extraire plus de performance de chaque puce est une question à plusieurs milliards de dollars. Cette focalisation sur l'efficacité reflète un marché en maturation où les investisseurs scrutent de plus en plus la rentabilité à long terme et l'évolutivité des plateformes d'IA, allant au-delà des simples capacités des modèles eux-mêmes.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.