Google approfondit son partenariat avec la startup d'IA Thinking Machines Lab grâce à un nouvel accord cloud de plusieurs milliards de dollars, une initiative qui intensifie la bataille coûteuse contre Amazon et Microsoft pour fournir l'infrastructure nécessaire à l'IA de pointe.
« En exploitant l'A4X Max et la pile intégrée de l'AI Hypercomputer, Google Cloud nous a permis de fonctionner à une vitesse record avec la fiabilité que nous exigeons », a déclaré Myle Ott, chercheur fondateur chez Thinking Machines, dans un communiqué.
L'accord, dont la valeur se chiffre en milliards de dollars (unité simple), donne à Thinking Machines l'accès aux derniers systèmes d'IA de Google basés sur les nouvelles puces GB300 de Nvidia. Lors des premiers tests, Thinking Machines a constaté une amélioration par 2 de la vitesse d'entraînement et de service par rapport aux GPU de génération précédente, accélérée par la structure réseau Jupiter de Google. La startup utilisera également une suite de services Google Cloud, notamment son moteur Kubernetes et sa base de données Spanner, pour soutenir ses charges de travail d'apprentissage par renforcement.
Ce partenariat souligne l'escalade des dépenses en capital nécessaires pour rivaliser à la frontière de l'IA. Pour Google, il s'agit d'une démarche cruciale pour verrouiller un client à forte croissance et démontrer ses capacités d'infrastructure IA face à ses rivaux. Pour le marché au sens large, cela signale que la monnaie principale dans la course à l'IA n'est pas seulement le talent, mais aussi l'accès à l'informatique haute performance à grande échelle.
Une concurrence féroce pour les charges de travail IA
Cet accord est le dernier d'une série de contrats à enjeux élevés conclus par les fournisseurs de cloud pour s'assurer les contrats des startups d'IA prometteuses. Les exigences computationnelles pour l'entraînement et le déploiement de modèles d'IA à grande échelle ont créé un nouveau marché massif pour l'infrastructure cloud, et les principaux acteurs dépensent massivement pour attirer et retenir les clients clés.
Cette semaine encore, Anthropic, un autre laboratoire d'IA de premier plan, a signé un nouvel accord avec Amazon pour sécuriser jusqu'à 5 gigawatts de capacité. Cela fait suite à un accord distinct conclu par Anthropic avec Google et Broadcom pour plusieurs gigawatts de capacité de TPU personnalisés de Google. La nature non exclusive de ces accords met en évidence la stratégie multi-cloud adoptée par de nombreux développeurs d'IA, mais l'ampleur du partenariat Google-Thinking Machines suggère une intégration profonde.
Thinking Machines, fondée en février 2025 par l'ancienne directrice technologique d'OpenAI, Mira Murati, est un point focal du brassage de talents et de capitaux dans l'industrie de l'IA. La société a levé 2 milliards de dollars lors d'un tour de table d'amorçage avec une valorisation de 12 milliards de dollars peu après sa création, et a lancé son premier produit, Tinker, un outil d'automatisation de la création de modèles d'IA de pointe.
Guerre des talents et muscle technique
Bien que l'accord cloud fournisse une infrastructure cruciale, Thinking Machines est également au centre de la « guerre des talents » de l'industrie. La startup a vu certains de ses membres fondateurs et chercheurs clés partir pour de plus grandes firmes technologiques. Meta aurait embauché au moins sept membres de l'équipe fondatrice, tandis qu'OpenAI a également recruté dans ses rangs.
Malgré ces départs, Thinking Machines conserve une profondeur technique significative. Le CTO de l'entreprise, Soumith Chintala, est le créateur de PyTorch, l'un des frameworks d'IA open-source les plus utilisés. L'accord avec Google, et son accès au matériel haut de gamme de Nvidia, est essentiel pour retenir et attirer les chercheurs d'élite nécessaires à la construction des modèles de nouvelle génération.
Le partenariat offre un aperçu de l'approche technique de la startup, Google notant sa capacité à prendre en charge les charges de travail d'apprentissage par renforcement qui sont au cœur de l'architecture de Tinker. Cette technique d'apprentissage est à l'origine de nombreuses percées récentes en IA et est notoirement coûteuse en termes de calcul, ce qui justifie l'ampleur de plusieurs milliards de dollars de l'accord cloud.
Cet article est à titre informatif uniquement et ne constitue pas un conseil en investissement.