Nvidia (NVDA) está reduciendo su negocio DGX Cloud orientado al exterior, cambiando su enfoque principal para aprovechar el servicio internamente para el diseño avanzado de chips y el desarrollo de modelos de inteligencia artificial. Este ajuste estratégico reduce la competencia directa con los principales proveedores de la nube al tiempo que refuerza la posición de Nvidia como proveedor fundamental de infraestructura de IA.
Giro Estratégico en Servicios en la Nube
Nvidia Corp. (NVDA) está, según se informa, reduciendo sus esfuerzos directos en el competitivo mercado de la computación en la nube con un ajuste estratégico significativo a su oferta DGX Cloud. Inicialmente posicionado como un competidor directo de hiperescaladores establecidos como Amazon Web Services (AMZN), DGX Cloud ahora servirá predominantemente a las necesidades internas de investigación y desarrollo de Nvidia. Este cambio fue reportado por primera vez por The Information, indicando un alejamiento de la búsqueda activa de clientes comerciales externos para concentrarse en aprovechar su potente infraestructura de chips de IA para la innovación propietaria.
El servicio DGX Cloud, que comprende servidores impulsados por los avanzados chips de IA de Nvidia, será utilizado por los propios investigadores de la compañía para tareas críticas, incluyendo el diseño de nuevas arquitecturas de semiconductores y el desarrollo de modelos sofisticados de IA optimizados para estos chips. Aunque Nvidia no dejará por completo de aceptar nuevos clientes —como lo demuestra el reciente anuncio de que la startup de computación cuántica e IA SandboxAQ utilizará DGX Cloud—, el énfasis se ha desplazado decididamente hacia el interior.
Navegando Presiones Competitivas y Dinámicas de Precios
Esta recalibración de la estrategia de nube de Nvidia se produce en medio de desafíos para competir con los gigantes de la nube establecidos. Los informes sugieren que los ambiciosos objetivos iniciales de ingresos para DGX Cloud, una vez proyectados para alcanzar potencialmente los 150 mil millones de dólares, enfrentaron obstáculos. Un factor principal fue la estructura de precios, con algunos desarrolladores de IA que, según se informa, encontraron los costos de DGX Cloud significativamente más altos que las ofertas comparables de los proveedores de la nube tradicionales, lo que limitó la demanda y provocó una rotación de clientes a corto plazo.
Además, la incursión de Nvidia en los servicios directos de la nube creó tensiones con sus socios cruciales: Amazon Web Services, Google Cloud y Microsoft Azure. Estos hiperescaladores son clientes importantes para las GPU de Nvidia, contribuyendo con una porción sustancial de sus ingresos. La expansión de DGX Cloud fue percibida como una amenaza competitiva, incentivando a estos socios a explorar el desarrollo de sus propios chips de IA para reducir la dependencia de Nvidia. Al reducir sus ambiciones de nube externa, Nvidia tiene como objetivo aliviar estas tensiones y fortalecer sus relaciones de colaboración con estos clientes críticos. La compañía inicialmente había perseguido un objetivo de ingresos de software de 2 mil millones de dólares, que incluía DGX Cloud, pero ahora ha optado por priorizar sus ventas de chips principales y sus asociaciones.
Reforzando la Columna Vertebral de la Infraestructura de IA
El giro estratégico de Nvidia señala un compromiso reforzado con su papel como proveedor fundamental de infraestructura de IA, en lugar de un operador de servicios de nube directo. Esta decisión calculada tiene como objetivo posicionar a Nvidia como la 'columna vertebral de la infraestructura de IA', permitiendo a los proveedores de la nube implementar sus chips de vanguardia en entornos híbridos. La visión de la compañía, articulada por el CEO Jensen Huang, enfatiza la 'red de IA como la computadora', centrándose en su experiencia en GPU, redes y software para crear una infraestructura componible que abarque varios entornos informáticos.
Este enfoque centrado en el ecosistema está demostrando ser financieramente beneficioso. Se proyecta que los ingresos de los centros de datos de Nvidia alcancen los 54 mil millones de dólares en el tercer trimestre de 2025, con una porción significativa de sus ingresos trimestrales recientes proveniente de tres clientes hiperescaladores, lo que destaca la fortaleza e importancia de estas asociaciones. La próxima GPU Blackwell, que se espera que aumente la producción en el cuarto trimestre de 2025, se proyecta que genere 210 mil millones de dólares en ingresos para el año, lo que subraya aún más el dominio de Nvidia en el hardware de IA de alto rendimiento. La disposición de AWS y Microsoft Azure para alojar instancias de nube de Blackwell refleja la creciente demanda de computación de IA y la colaboración continua con Nvidia.
El Camino a Seguir para Nvidia y el Ecosistema de IA
El ajuste estratégico de DGX Cloud permite a Nvidia concentrar sus recursos en el avance de sus tecnologías centrales de semiconductores e IA, que son críticas para mantener su liderazgo en el mercado. Al reasignar esfuerzos hacia la investigación interna —incluida la asignación de 13 mil millones de dólares para adquirir sus propios chips de IA de otros proveedores de la nube—, Nvidia tiene como objetivo acelerar el desarrollo de nuevos chips y herramientas de IA que mejoren el rendimiento de los chips.
Para los inversores, las implicaciones a largo plazo dependen de la capacidad de Nvidia para innovar a escala, navegar por un posible escrutinio antimonopolio y mantener sus asociaciones vitales con los principales proveedores de la nube. Si bien Nvidia tiene una cuota dominante del 70-95% en el mercado de entrenamiento de IA, desafíos como los retrasos en la producción y la creciente competencia de AMD e Intel, junto con las restricciones a la exportación de EE. UU., siguen siendo factores a monitorear. Este cambio estratégico es indicativo de la confianza de Nvidia en su ventaja tecnológica y su enfoque proactivo para gestionar los vientos en contra competitivos y regulatorios en el panorama de la IA en rápida evolución. El éxito de la compañía dependerá en última instancia de la adopción continua de su hardware avanzado en entornos de nube híbrida y de su agilidad para abordar una industria dinámica.



