Alibaba Lance la Production de Masse de son GPU IA Interne
La filiale de conception de puces d'Alibaba, T-Head, a commencé la production de masse de sa propre unité de traitement graphique (GPU) auto-développée. La société a annoncé que la puce est conçue pour gérer l'ensemble du spectre des charges de travail IA, de l'entraînement intensif des grands modèles au travail à grand volume de réglage fin et d'inférence. Le nouveau matériel est compatible avec les frameworks IA grand public, renforçant l'approvisionnement informatique à long terme d'Alibaba.
Ce développement est une pierre angulaire de la stratégie d'Alibaba visant à créer une pile IA verticalement intégrée. En combinant son GPU propriétaire avec son grand modèle linguistique Qianwen et son infrastructure de cloud computing, la société vise à offrir des services IA haute performance et rentables. Cette démarche marque une étape critique vers l'autosuffisance technologique, réduisant la dépendance vis-à-vis des fournisseurs de puces étrangers et protégeant son activité cloud en forte croissance des risques de la chaîne d'approvisionnement géopolitique.
Les Puces Internes Menacent les 90% de Part de Marché de Nvidia
La poussée d'Alibaba vers l'indépendance en matière de silicium fait partie d'une révolte industrielle plus large contre le pouvoir de marché de Nvidia. Tandis que les contrôles à l'exportation américains accélèrent les efforts de la Chine en matière de puces nationales, même les plus grands clients américains de Nvidia construisent leurs propres alternatives. Des géants technologiques comme Google, Microsoft et Meta investissent des milliards dans des accélérateurs IA personnalisés pour contester les 90% de part de marché estimée du fabricant de puces sur le marché du matériel IA.
Le principal moteur est le coût. À mesure que les charges de travail IA se déplacent vers l'inférence — le processus d'exécution de modèles entraînés —, les entreprises constatent que les GPU à usage général de Nvidia ne sont pas toujours le choix le plus économique. Les unités de traitement tensoriel (TPU) conçues à cet effet par Google, par exemple, offriraient un coût total de possession inférieur de 30 à 44% à celui des serveurs comparables de Nvidia. La sensibilité du marché à cette tendance est aiguë ; des rapports selon lesquels Meta explorait les TPU de Google ont effacé environ 250 milliards de dollars de la capitalisation boursière de Nvidia en une seule séance de bourse.
Les Charges de Travail d'Inférence Représenteront 75% des Dépenses IA d'ici 2030
Le pivot stratégique vers les puces personnalisées est directement lié à l'évolution de l'économie de l'intelligence artificielle. Selon les analystes de Bank of America, l'inférence IA devrait passer d'environ 50% des dépenses IA des centres de données aujourd'hui à 75% d'ici 2030. Les puces spécialement conçues par Alibaba et ses homologues américains sont explicitement destinées à optimiser les performances et les coûts pour ce segment à forte croissance.
Cette tendance marque un défi fondamental au modèle « une puce pour tous » qui a alimenté l'ascension de Nvidia. Bien que Nvidia réponde en diversifiant sa gamme de produits, le paysage concurrentiel se fragmente rapidement. Avec les principaux fournisseurs de cloud et les entreprises technologiques qui conçoivent désormais leur propre silicium, la course est lancée pour fournir un matériel moins cher et plus efficace pour un marché qui passe rapidement de l'entraînement au déploiement à grande échelle.