Alibaba Logra la Producción en Masa de su GPU de IA Propia
La subsidiaria de diseño de chips de Alibaba, T-Head, ha comenzado a producir en masa su propia Unidad de Procesamiento Gráfico (GPU) de desarrollo propio. La compañía anunció que el chip está diseñado para manejar el espectro completo de cargas de trabajo de IA, desde el entrenamiento intensivo de grandes modelos hasta el trabajo de gran volumen de ajuste fino e inferencia. El nuevo hardware es compatible con los frameworks de IA principales, lo que refuerza el suministro de computación a largo plazo de Alibaba.
Este desarrollo es una piedra angular de la estrategia de Alibaba para crear una pila de IA integrada verticalmente. Al combinar su GPU propietaria con su modelo de lenguaje grande Qianwen y su infraestructura de computación en la nube, la compañía busca ofrecer servicios de IA de alto rendimiento y rentables. La medida señala un paso crítico hacia la autosuficiencia tecnológica, reduciendo la dependencia de proveedores de chips extranjeros y aislando su negocio de nube de rápido crecimiento de los riesgos geopolíticos de la cadena de suministro.
Chips Internos Amenazan el 90% de Cuota de Mercado de Nvidia
El impulso de Alibaba por la independencia del silicio es parte de una revuelta industrial más amplia contra el poder de mercado de Nvidia. Mientras que los controles de exportación de EE. UU. aceleran los esfuerzos de chips domésticos de China, incluso los clientes estadounidenses más grandes de Nvidia están construyendo sus propias alternativas. Gigantes tecnológicos como Google, Microsoft y Meta están invirtiendo miles de millones en aceleradores de IA personalizados para desafiar la cuota de mercado estimada del 90% del fabricante de chips en el mercado de hardware de IA.
El principal impulsor es el costo. A medida que las cargas de trabajo de IA se desplazan hacia la inferencia —el proceso de ejecución de modelos entrenados—, las empresas están descubriendo que las GPU de propósito general de Nvidia no siempre son la opción más económica. Las Unidades de Procesamiento Tensorial (TPU) construidas a propósito por Google, por ejemplo, supuestamente ofrecen un costo total de propiedad entre un 30% y un 44% más bajo que los servidores comparables de Nvidia. La sensibilidad del mercado a esta tendencia es aguda; los informes de que Meta estaba explorando las TPU de Google borraron aproximadamente 250 mil millones de dólares de la capitalización de mercado de Nvidia en una sola sesión de negociación.
Las Cargas de Trabajo de Inferencia Impulsarán el 75% del Gasto en IA para 2030
El giro estratégico hacia los chips personalizados está directamente relacionado con la economía cambiante de la inteligencia artificial. Según los analistas de Bank of America, se espera que la inferencia de IA se expanda desde aproximadamente el 50% del gasto en IA de los centros de datos hoy al 75% para 2030. Los chips construidos a propósito de Alibaba y sus contrapartes estadounidenses están diseñados explícitamente para optimizar el rendimiento y el costo para este segmento de alto crecimiento.
Esta tendencia marca un desafío fundamental al modelo de "un chip para todo" que impulsó el ascenso de Nvidia. Si bien Nvidia está respondiendo diversificando su línea de productos, el panorama competitivo se está fragmentando rápidamente. Con los principales proveedores de la nube y las empresas de tecnología diseñando ahora su propio silicio, la carrera está en marcha para proporcionar hardware más barato y eficiente para un mercado que está pasando rápidamente del entrenamiento al despliegue a gran escala.