Làn sóng lợi nhuận AI tiếp theo đang chuyển từ các nhà thiết kế chip sang các nhà xây dựng trung tâm dữ liệu, tạo ra một nhóm các nhà dẫn đầu thị trường mới.
Quay lại
Làn sóng lợi nhuận AI tiếp theo đang chuyển từ các nhà thiết kế chip sang các nhà xây dựng trung tâm dữ liệu, tạo ra một nhóm các nhà dẫn đầu thị trường mới.

(Bloomberg) -- Câu chuyện đầu tư thúc đẩy sự bùng nổ trí tuệ nhân tạo đang mở rộng ra ngoài các nhà sản xuất chip sơ cấp, với sự tập trung ngày càng tăng vào cơ sở hạ tầng trung tâm dữ liệu quan trọng cần thiết để hỗ trợ các mô hình AI quy mô lớn. Một phân tích từ The Motley Fool xác định sự chuyển dịch sang mạng và phần cứng suy luận chuyên dụng là giai đoạn tiếp theo của siêu chu kỳ AI.
Báo cáo ngày 7 tháng 4 cho biết: "Trong khi làn sóng đầu tư AI đầu tiên tập trung vào phần cứng đào tạo, làn sóng tiếp theo sẽ được thúc đẩy bởi hệ thống mạng liên kết tất cả lại với nhau và hiệu quả của suy luận".
Phân tích làm nổi bật các chuyên gia mạng trung tâm dữ liệu Broadcom (AVGO) và Arista Networks (ANET) là những bên hưởng lợi chính từ xu hướng này. Nó cũng chỉ ra sự phát triển các Đơn vị Xử lý Tensor (TPU) tùy chỉnh của Alphabet (GOOGL) là một lợi thế chính trong thị trường suy luận AI ngày càng quan trọng, nơi hiệu quả và chi phí vận hành thấp là tối quan trọng.
Sự chuyển dịch này gợi ý rằng trong khi các công ty như Nvidia đã nắm bắt được sự gia tăng ban đầu, các nhà đầu tư hiện đang tìm kiếm sự tăng trưởng trong lớp cơ sở hạ tầng thiết yếu nhưng ít được thổi phồng hơn. Tiềm năng về nhu cầu duy trì trong việc xây dựng trung tâm dữ liệu có thể sắp xếp lại danh sách các cổ phiếu AI hoạt động tốt nhất khi thị trường trưởng thành.
## Mạng Trung tâm Dữ liệu Chiếm Vị trí Trung tâm
Sự phát triển bùng nổ của các mô hình AI đã tạo ra nhu cầu chưa từng có về công suất trung tâm dữ liệu, và cụ thể hơn là mạng tốc độ cao để kết nối hàng nghìn GPU. Broadcom và Arista Networks được định vị trực tiếp trên con đường của nhu cầu này. Broadcom là nhà cung cấp chính các bộ chuyển mạch ethernet băng thông cao và silicon tùy chỉnh cần thiết cho các cấu trúc mạng AI. Arista Networks đã xây dựng doanh nghiệp của mình dựa trên các bộ chuyển mạch tốc độ cao, độ trễ thấp, vốn rất quan trọng đối với hiệu suất của các cụm AI lớn. Khi các doanh nghiệp và nhà cung cấp đám mây chạy đua xây dựng khả năng AI của họ, chi tiêu cho xương sống mạng này dự kiến sẽ tăng đáng kể, tạo ra động lực bền vững cho cả hai công ty.
## Lợi thế Suy luận của Alphabet
Trong khi phần lớn thị trường tập trung vào phần cứng để đào tạo các mô hình AI, chi phí dài hạn của AI sẽ bị chi phối bởi suy luận — quá trình chạy các mô hình đã đào tạo để đưa ra câu trả lời. Việc Alphabet đầu tư lâu dài vào phần cứng TPU tùy chỉnh của riêng mình mang lại cho họ lợi thế đáng kể trong lĩnh vực này. Được thiết kế đặc biệt cho khối lượng công việc của Google, TPU có thể mang lại hiệu suất trên mỗi watt vượt trội cho các tác vụ suy luận so với các GPU đa dụng hơn. Hiệu quả này có thể chuyển thành lợi thế chi phí hàng tỷ đô la khi việc sử dụng các dịch vụ AI của họ mở rộng, củng cố hào cạnh tranh cho bộ phận đám mây và các sản phẩm hỗ trợ AI của chính họ.
Bài viết này chỉ dành cho mục đích thông tin và không cấu thành lời khuyên đầu tư.