Các khách hàng lớn nhất của Nvidia đang trở thành đối thủ cạnh tranh lớn nhất của họ, một sự thay đổi chiến lược có thể định hình lại thị trường hạ tầng AI trị giá gần 725 tỷ USD.
Quay lại
Các khách hàng lớn nhất của Nvidia đang trở thành đối thủ cạnh tranh lớn nhất của họ, một sự thay đổi chiến lược có thể định hình lại thị trường hạ tầng AI trị giá gần 725 tỷ USD.

Cổ phiếu của Nvidia Corp. đã giảm hơn 4% sau khi hai trong số các khách hàng lớn nhất của họ là Google và Amazon phát đi tín hiệu về kế hoạch dứt khoát bán các chip tăng tốc AI do họ tự phát triển trực tiếp cho các khách hàng doanh nghiệp, tạo ra một mặt trận cạnh tranh mới cho công ty dẫn đầu thị trường.
Động thái này đe dọa biến những đối tác quan trọng nhất của Nvidia thành đối thủ trực tiếp. Jay Goldberg, nhà phân tích bán dẫn tại Seaport Research, cho biết: “Điều này có thể gây xáo trộn cơ bản cho Nvidia. Tôi nghĩ đây là một rủi ro khá lớn.”
Alphabet, công ty mẹ của Google, đã thông báo sẽ bán các chip Tensor Processing Unit (TPU) độc quyền của mình cho một nhóm khách hàng bên ngoài chọn lọc để sử dụng trong các trung tâm dữ liệu của riêng họ trong năm nay. Morgan Stanley ước tính rằng chỉ cần bán 500.000 TPU có thể mang lại thêm khoảng 13 tỷ USD doanh thu cho Google vào năm 2027. Amazon cũng nối gót với tuyên bố riêng, với CEO Andy Jassy cho biết có “khả năng cao” công ty sẽ cung cấp các rack chip Trainium của mình ngoài các dịch vụ đám mây của riêng họ trong vòng hai năm tới.
Đối với Nvidia, công ty đang nắm giữ khoảng 90% thị phần máy tăng tốc AI, các thông báo này đại diện cho một thách thức dài hạn đối với mảng kinh doanh có biên lợi nhuận cao của họ. Mặc dù vị trí dẫn đầu của công ty không gặp nguy hiểm ngay lập tức, nhưng sự chuyển dịch của các nhà cung cấp đám mây quy mô siêu lớn sang việc tự cung cấp chip đánh dấu một sự thay đổi cấu trúc trong bối cảnh ngành chip.
Sự xoay trục chiến lược từ Google và Amazon tập trung vào việc cung cấp các lựa chọn thay thế tiết kiệm chi phí và chuyên dụng hơn cho các GPU mạnh mẽ nhưng đắt đỏ của Nvidia, chẳng hạn như H100 có chi phí vật liệu hơn 3.000 USD và được bán với giá cao hơn nhiều. Cả hai công ty đều đang xây dựng hình ảnh chip tùy chỉnh của họ là phù hợp hơn cho các khối lượng công việc AI cụ thể, đặc biệt là suy luận (inference)—quá trình chạy các mô hình đã được đào tạo—đang trở thành một phần lớn hơn trong chi phí điện toán đám mây khi các ứng dụng AI mở rộng quy mô.
Google đã công bố một TPU mới được thiết kế riêng cho suy luận. Trong khi các chip của họ trước đây vốn được điều chỉnh cho các dịch vụ nội bộ, việc cung cấp chúng cho khách hàng bên ngoài là một thách thức trực tiếp đối với phần cứng của Nvidia. Tương tự, mảng kinh doanh Trainium của Amazon được cho là đã vượt mức doanh thu hàng năm 20 tỷ USD, theo Bloomberg, cho thấy động lực tăng trưởng đáng kể. Sự mở rộng này diễn ra khi các đại gia công nghệ dự kiến sẽ đầu tư tổng cộng tới 725 tỷ USD vào hạ tầng AI vào năm 2026.
Tuy nhiên, không phải tất cả các nhà phân tích đều coi đây là một trò chơi có tổng bằng không. Stacy Rasgon của Bernstein Research lập luận rằng vấn đề cốt lõi của ngành công nghiệp AI là thiếu nguồn cung chứ không phải thiếu nhu cầu. Với nhu cầu tính toán tăng theo cấp số nhân, ông cho rằng bất kỳ công ty nào có khả năng sản xuất chip khả thi đều có thể bán hết những gì họ làm ra. Bản thân Nvidia cũng đang nắm giữ các cam kết cung ứng trị giá 95,2 tỷ USD từ các công ty AI lớn bao gồm OpenAI, Anthropic và Meta.
Beatriz Valle, nhà phân tích cấp cao tại GlobalData, gọi quyết định của Google và Amazon là một “động thái phi thường” sẽ đa dạng hóa lĩnh vực chip. “Quá trình này sẽ mất nhiều năm nhưng hiện tại nó là không thể đảo ngược,” bà nói. Việc chuyển đổi từ một người tiêu dùng chip sang một nhà cung cấp chip không hề đơn giản. Các nhà phân tích lưu ý rằng Google và Amazon sẽ cần xây dựng hệ sinh thái hỗ trợ, giáo dục và dịch vụ sâu rộng để cạnh tranh với “con hào” sâu mà Nvidia đã xây dựng qua nhiều năm.
Alvin Nguyen, nhà phân tích cấp cao tại Forrester, nhận định: “Bán sản phẩm rất khác với việc cấp quyền truy cập vào chúng”, đồng thời chỉ ra mạng lưới phần mềm và hỗ trợ mạnh mẽ giúp Nvidia trở thành lựa chọn dễ dàng cho các doanh nghiệp. Hơn nữa, các chip tùy chỉnh từ Google và Amazon mang tính độc quyền cao và được thiết kế cho kiến trúc trung tâm dữ liệu của riêng họ, điều này có thể gây khó khăn cho việc áp dụng rộng rãi, theo Patrick Moorhead của Moor Insights & Strategy.
Tuy nhiên, xu hướng này là rõ ràng. Với việc Meta cũng đang theo đuổi chip MTIA tùy chỉnh của riêng mình, các ông lớn trong ngành AI đang tích cực thực hiện tích hợp theo chiều dọc. Bằng cách phát triển chip của riêng mình, các công ty này có thể tối ưu hóa cho phần mềm và khối lượng công việc cụ thể của họ, kiểm soát lộ trình công nghệ của chính mình và chiếm lĩnh một phần lớn hơn trong chuỗi giá trị AI đang bùng nổ.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.