La segunda ola del comercio de IA está recompensando a los proveedores de infraestructura de red, y los fabricantes de componentes ópticos como Lumentum están superando significativamente a los diseñadores de chips.
Atrás
La segunda ola del comercio de IA está recompensando a los proveedores de infraestructura de red, y los fabricantes de componentes ópticos como Lumentum están superando significativamente a los diseñadores de chips.

Aunque Nvidia (NASDAQ: NVDA) sigue siendo una fuerza dominante en la inteligencia artificial, su desempeño bursátil se está viendo eclipsado por el fabricante de componentes ópticos Lumentum Holdings (NASDAQ: LITE), que ha visto sus acciones ganar más del 120 % en lo que va de 2026. El repunte indica una ampliación de la tesis de inversión en IA más allá de los diseñadores de GPU hacia los proveedores críticos de infraestructura de red para la IA a gran escala.
El sentimiento alcista se extiende por toda la cadena de suministro óptica. Rosenblatt elevó recientemente su precio objetivo para el socio de fabricación Fabrinet (NYSE: FN) de 550 a 715 dólares, citando el aumento de la inversión por parte de los líderes de IA como una señal positiva para el ecosistema en general. La firma señaló que Fabrinet es un socio de fabricación crítico para los transceptores avanzados y los módulos de óptica coempaquetada (CPO) necesarios para satisfacer la acelerada demanda de redes de IA.
El auge inicial de la IA fue impulsado por la necesidad de potencia de cálculo bruta para entrenar grandes modelos de lenguaje, una carrera que benefició abrumadoramente a Nvidia. Sin embargo, la siguiente fase de la IA se centra en la interconexión de cúmulos masivos de chips, la inferencia y la IA agéntica. Con cúmulos de IA que ahora escalan más allá de un millón de chips individuales, el rendimiento de la red es tan crítico como el rendimiento de un solo procesador. Este cambio otorga un valor superior a los componentes que reducen la congestión y recortan drásticamente el consumo de energía.
Esta segunda ola beneficia directamente a empresas como Broadcom (NASDAQ: AVGO), líder en conmutadores Ethernet e interconexiones ópticas que forman la columna vertebral de las redes de centros de datos. También impulsa a Arista Networks (NYSE: ANET), que empaqueta estos componentes con su Sistema Operativo Extensible (EOS) para proporcionar plataformas de red de alto rendimiento y gestionables para hiperescaladores como Microsoft (NASDAQ: MSFT) y Meta Platforms (NASDAQ: META).
A medida que los modelos de IA crecen, el desafío se desplaza de la computación pura al movimiento eficiente de datos. El liderazgo de Broadcom en soluciones de conmutación Ethernet de alto ancho de banda es fundamental para esta nueva fase. Los componentes de la empresa son integrales para evitar cuellos de botella en los sistemas de IA que pueden paralizar el rendimiento, independientemente de la potencia de los chips subyacentes. Arista Networks, un cliente clave de Broadcom, integra este hardware en soluciones integrales para sus principales clientes, demostrando la profunda integración de la cadena de suministro.
La tendencia también incluye un movimiento hacia chips diseñados a medida. La asociación de Alphabet (NASDAQ: GOOGL) con Broadcom para desarrollar sus Unidades de Procesamiento de Tensores (TPU) es un ejemplo de ello. Estos ASIC de IA diseñados específicamente le dan a Google una ventaja de costes estructurales; SemiAnalysis estima un coste total de propiedad un 44 % menor en comparación con los servidores equivalentes basados en Nvidia. Esta eficiencia es crucial para la inferencia de alto volumen, el proceso de ejecutar modelos de IA entrenados.
La demanda de soluciones ópticas personalizadas y de alto rendimiento está llevando las capacidades de fabricación a nuevos límites. Fabrinet, un socio clave para muchos diseñadores de componentes, está abordando esto directamente mediante el establecimiento de una línea de fabricación dedicada a sistemas de conmutación de circuitos ópticos basados en fotónica de silicio. Se espera que esta expansión esté plenamente operativa en el segundo trimestre de 2026 y está diseñada para satisfacer la creciente demanda de los hiperescaladores y proveedores de sistemas de IA.
De cara al futuro, se espera que el surgimiento de la IA agéntica —donde los agentes de IA realizan tareas de forma independiente— cree otro choque de demanda para la infraestructura de los centros de datos. Esta tendencia requerirá un aumento masivo de CPU de alto rendimiento que proporcionen lógica secuencial y razonamiento. Tanto Advanced Micro Devices (NASDAQ: AMD), el líder actual en CPU para centros de datos, como Arm Holdings (NASDAQ: ARM) están desarrollando nuevas arquitecturas para capturar lo que Arm proyecta que será un mercado de CPU para centros de datos de 100.000 millones de dólares en cinco años.
Este artículo tiene únicamente fines informativos y no constituye asesoramiento de inversión.