HPE Presenta la Malla de IA para Unificar la IA Distribuida en el GTC 2026
Hewlett Packard Enterprise anunció la HPE AI Grid el 17 de marzo en la conferencia GTC 2026 de NVIDIA, presentando una solución diseñada para conectar y gestionar la infraestructura de IA descentralizada. La plataforma, construida sobre la arquitectura de referencia de NVIDIA, permite a los proveedores de servicios y a las empresas transformar miles de sitios de inferencia distribuidos –desde centros de datos regionales hasta el borde remoto– en un sistema único, inteligente y seguro. Esta iniciativa aborda directamente la creciente necesidad empresarial de sistemas de IA repetibles y gobernados que ofrezcan retornos medibles, yendo más allá de proyectos piloto aislados.
La Plataforma Integra la Nueva Arquitectura Vera Rubin de NVIDIA para una Escala de 128 GPU
HPE está integrando profundamente la tecnología de próxima generación de NVIDIA en todo su portafolio para impulsar la nueva Malla de IA. La compañía anunció un soporte más amplio para las plataformas NVIDIA Blackwell y Vera Rubin, incluida la introducción del Nvidia Vera Rubin NVL72 por HPE, un sistema de refrigeración líquida a escala de rack construido para modelos con más de un billón de parámetros. Como parte de esta expansión, el sistema de IA de Nube Privada de HPE, diseñado conjuntamente con NVIDIA, ahora puede escalar hasta 128 unidades de procesamiento gráfico (GPU) a través de racks de expansión en red. Esto proporciona un sistema llave en mano estandarizado para la IA soberana y las industrias reguladas como las finanzas y la atención médica que requieren configuraciones con aislamiento físico.
Comcast Despliega Servidores HPE para la Prueba de IA en el Borde de la Red
El impulso estratégico hacia la IA distribuida ya está ganando tracción en el mercado. En un anuncio paralelo el 17 de marzo, Comcast reveló una colaboración con NVIDIA para probar cargas de trabajo de IA en el borde de su red, utilizando servidores HPE ProLiant para una de sus pruebas clave. La iniciativa tiene como objetivo acelerar las aplicaciones de IA en tiempo real procesando datos a milisegundos de distancia de los clientes. Un caso de uso implica el despliegue de un "Agente de Conserjería para Pequeñas Empresas" impulsado por IA en servidores HPE para gestionar citas y responder preguntas de los clientes, demostrando las aplicaciones comerciales tangibles para la IA de baja latencia en el borde que la HPE AI Grid está diseñada para soportar.