NVIDIA valida a Groq y confirma su lanzamiento en el segundo semestre con Samsung
Jensen Huang, CEO de NVIDIA, confirmó el 17 de marzo que el innovador chip de IA Groq utiliza a Samsung como su socio de fabricación. Hablando públicamente, Huang afirmó que los sistemas construidos con los chips especializados de Groq están programados para lanzarse en el segundo semestre del año. Este anuncio sirve como una validación importante para Groq, confirmando sus capacidades de producción y su cronograma de productos, al mismo tiempo que lo posiciona como un actor creíble en el competitivo panorama de los semiconductores.
El reconocimiento del líder del mercado intensifica el enfoque en el sector de los chips de IA, donde las nuevas arquitecturas están desafiando el dominio de las GPU tradicionales. Para los inversores, la declaración de Huang confirma que Groq no es solo un competidor teórico, sino una empresa con una hoja de ruta de productos tangible y una cadena de suministro de fabricación de primer nivel, lo que corrobora los informes de que Groq ha instado a Samsung a aumentar la producción de obleas para satisfacer la alta demanda.
Nueva estrategia apunta a la inferencia, el 40% de los ingresos de 2024
La declaración de NVIDIA es parte de una estrategia más amplia para defender y expandir su posición en el mercado de inferencia de IA, un segmento responsable de aproximadamente el 40% de sus ingresos por centros de datos en 2024. Si bien las GPU de NVIDIA son el estándar de la industria para el proceso computacionalmente intensivo de entrenamiento de modelos de IA, el mercado de inferencia —donde los modelos entrenados se implementan para uso en el mundo real— está más fragmentado y es más competitivo. Empresas como AMD, Google con sus TPU y otros diseñadores de silicio personalizado están compitiendo por la cuota de mercado con soluciones que priorizan el bajo costo y el alto rendimiento.
Groq ha diseñado específicamente sus Unidades de Procesamiento de Lenguaje (LPU) para este propósito. A diferencia de las GPU que utilizan memoria de alto ancho de banda (HBM) ubicada adyacente al chip, las LPU de Groq utilizan SRAM integrada directamente en el chip. Este diseño permite un procesamiento más rápido y eficiente energéticamente de tareas secuenciales, lo cual es característico de las cargas de trabajo de inferencia de IA como la generación de texto para chatbots. Al reconocer el progreso de Groq, NVIDIA está señalando su conocimiento de estas ventajas arquitectónicas y preparándose para competir más agresivamente en este segmento de mercado crítico.
La asociación Groq podría reflejar el éxito de Mellanox por 11 mil millones de dólares
Los analistas de mercado sugieren que el interés de NVIDIA en Groq va más allá de un simple reconocimiento, potencialmente reflejando la estrategia detrás de su exitosa adquisición de Mellanox. El propio Huang ha insinuado que la tecnología de Groq podría integrarse como un acelerador dentro de la arquitectura de NVIDIA. Este plan de juego demostró ser enormemente exitoso con Mellanox, que transformó las capacidades de NVIDIA en redes de centros de datos y ahora genera aproximadamente 11 mil millones de dólares en ingresos trimestrales para esa división.
Esta comparación subraya el impacto financiero potencial de una colaboración más profunda con Groq. Han circulado informes sobre un posible acuerdo de licencia importante y la adquisición de talento que daría a NVIDIA acceso a la propiedad intelectual central y al talento de ingeniería de Groq, incluido su fundador Jonathan Ross. Tal movimiento permitiría a NVIDIA ofrecer una solución más especializada y de primer nivel para la inferencia, complementando su dominio de GPU en el entrenamiento y creando una solución integral y de ventanilla única para la infraestructura de computación de IA.