Làn sóng thứ hai của giao dịch AI đang mang lại lợi nhuận cho các nhà cung cấp cơ sở hạ tầng mạng, với các nhà sản xuất linh kiện quang học như Lumentum có hiệu suất vượt xa các nhà thiết kế chip.
Quay lại
Làn sóng thứ hai của giao dịch AI đang mang lại lợi nhuận cho các nhà cung cấp cơ sở hạ tầng mạng, với các nhà sản xuất linh kiện quang học như Lumentum có hiệu suất vượt xa các nhà thiết kế chip.

Mặc dù Nvidia (NASDAQ: NVDA) vẫn là một thế lực thống trị trong lĩnh vực trí tuệ nhân tạo, nhưng hiệu suất cổ phiếu của công ty này đang bị che mờ bởi nhà sản xuất linh kiện quang học Lumentum Holdings (NASDAQ: LITE), với giá cổ phiếu đã tăng hơn 120% tính đến thời điểm hiện tại trong năm 2026. Sự gia tăng này cho thấy sự mở rộng của luận điểm đầu tư AI vượt ra ngoài các nhà thiết kế GPU sang các nhà cung cấp "cuốc và xẻng" quan trọng xây dựng cơ sở hạ tầng mạng cho AI quy mô lớn.
Tâm lý lạc quan lan rộng khắp chuỗi cung ứng quang học. Rosenblatt gần đây đã tăng giá mục tiêu cho đối tác sản xuất Fabrinet (NYSE: FN) từ 550 USD lên 715 USD, với lý do đầu tư tăng từ các nhà lãnh đạo AI là tín hiệu tích cực cho toàn bộ hệ sinh thái. Công ty lưu ý rằng Fabrinet là đối tác sản xuất quan trọng cho các máy thu phát tiên tiến và các mô-đun quang học đóng gói chung (CPO) cần thiết để đáp ứng nhu cầu tăng tốc về mạng AI.
Sự bùng nổ AI ban đầu được thúc đẩy bởi nhu cầu về sức mạnh tính toán thô để đào tạo các mô hình ngôn ngữ lớn, một cuộc đua mà Nvidia đã được hưởng lợi áp đảo. Tuy nhiên, giai đoạn tiếp theo của AI tập trung vào việc kết nối các cụm chip khổng lồ, suy luận và AI tác nhân (agentic AI). Với các cụm AI hiện đang mở rộng quy mô vượt quá một triệu chip riêng lẻ, hiệu suất của mạng cũng quan trọng như hiệu suất của một bộ xử lý đơn lẻ. Sự chuyển dịch này tạo ra giá trị thặng dư cho các linh kiện giúp giảm tắc nghẽn và cắt giảm tiêu thụ năng lượng.
Làn sóng thứ hai này mang lại lợi ích trực tiếp cho các công ty như Broadcom (NASDAQ: AVGO), công ty hàng đầu về bộ chuyển mạch Ethernet và kết nối quang học tạo thành xương sống của mạng trung tâm dữ liệu. Nó cũng thúc đẩy Arista Networks (NYSE: ANET), công ty đóng gói các linh kiện này với Hệ điều hành mở rộng (EOS) để cung cấp các nền tảng mạng hiệu suất cao, có thể quản lý cho các nhà cung cấp dịch vụ đám mây quy mô lớn (hyperscalers) như Microsoft (NASDAQ: MSFT) và Meta Platforms (NASDAQ: META).
Khi các mô hình AI phát triển, thách thức chuyển từ tính toán thuần túy sang di chuyển dữ liệu hiệu quả. Sự dẫn đầu của Broadcom trong các giải pháp chuyển mạch Ethernet băng thông cao là trung tâm của giai đoạn mới này. Các linh kiện của công ty là không thể thiếu để ngăn chặn tình trạng thắt nút cổ chai trong các hệ thống AI có thể làm tê liệt hiệu suất, bất kể sức mạnh của các chip cơ sở. Arista Networks, một khách hàng chủ chốt của Broadcom, tích hợp phần cứng này vào các giải pháp toàn diện cho các khách hàng hàng đầu của mình, thể hiện sự tích hợp chuỗi cung ứng sâu sắc.
Xu hướng này cũng bao gồm việc chuyển sang các chip được thiết kế tùy chỉnh. Sự hợp tác của Alphabet (NASDAQ: GOOGL) với Broadcom để phát triển các Đơn vị xử lý Tensor (TPU) là một ví dụ điển hình. Các ASIC AI chuyên dụng này mang lại cho Google lợi thế về chi phí cấu trúc, với ước tính từ SemiAnalysis cho thấy tổng chi phí sở hữu thấp hơn 44% so với các máy chủ tương đương dựa trên Nvidia. Hiệu quả này rất quan trọng đối với suy luận khối lượng lớn, quá trình chạy các mô hình AI đã được đào tạo.
Nhu cầu về các giải pháp quang học hiệu suất cao, tùy chỉnh đang đẩy khả năng sản xuất lên những giới hạn mới. Fabrinet, đối tác quan trọng của nhiều nhà thiết kế linh kiện, đang trực tiếp giải quyết vấn đề này bằng cách thiết lập một dây chuyền sản xuất chuyên dụng cho các hệ thống chuyển mạch mạch quang học dựa trên quang tử silicon. Việc mở rộng này, dự kiến sẽ đi vào hoạt động đầy đủ vào quý 2 năm 2026, được thiết kế để hỗ trợ nhu cầu ngày càng tăng từ các hyperscaler và nhà cung cấp hệ thống AI.
Nhìn về phía trước, sự trỗi dậy của AI tác nhân — nơi các tác nhân AI thực hiện nhiệm vụ một cách độc lập — dự kiến sẽ tạo ra một cú sốc nhu cầu khác đối với cơ sở hạ tầng trung tâm dữ liệu. Xu hướng này sẽ đòi hỏi sự gia tăng lớn các CPU hiệu suất cao cung cấp logic tuần tự và lập luận. Cả Advanced Micro Devices (NASDAQ: AMD), công ty dẫn đầu hiện nay về CPU trung tâm dữ liệu, và Arm Holdings (NASDAQ: ARM) đều đang phát triển các kiến trúc mới để chiếm lĩnh thị trường CPU trung tâm dữ liệu mà Arm dự báo sẽ đạt 100 tỷ USD trong vòng 5 năm tới.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.