Nhiệm vụ của Nvidia là biến "các electron thành token" hiệu quả hơn bất kỳ ai khác trên hành tinh, theo CEO Jensen Huang.
CEO Nvidia Corp. Jensen Huang đã đưa ra một lập luận bảo vệ mạnh mẽ cho tỷ suất lợi nhuận gộp 70% đang thống trị của công ty mình, khẳng định rằng không có nền tảng cạnh tranh nào từ các đối thủ như Google hay Amazon có thể sánh được với tổng chi phí sở hữu (TCO) của các bộ tăng tốc AI của họ. Trong một cuộc phỏng vấn chi tiết vào ngày 15 tháng 4, Huang đã bác bỏ quan điểm cho rằng các gã khổng lồ đám mây đang làm xói mòn thị phần của Nvidia, định hình công ty của ông là một "bộ chuyển đổi electron-thành-token" cơ bản với đề xuất giá trị vẫn chưa có đối thủ.
"Ngày nay tôi không thấy một nền tảng nào trên thế giới có TCO cho trung tâm dữ liệu AI tốt hơn của chúng tôi. Không một cái nào," Huang nói trong cuộc phỏng vấn với Dwarkesh Patel, trực tiếp thách thức các tuyên bố về lợi thế chi phí 40% từ các chip Trainium của Amazon.
Sự phản bác mạnh mẽ này diễn ra khi các khách hàng siêu quy mô (hyperscale), vốn chiếm khoảng 60% doanh thu của Nvidia, đang đầu tư mạnh mẽ vào việc phát triển chip nội bộ của riêng họ. Huang lập luận rằng ngay cả với tỷ suất lợi nhuận cao, tính kinh tế vẫn ủng hộ Nvidia, tuyên bố rằng tỷ suất lợi nhuận gộp cho một chip ASIC tùy chỉnh của đối thủ là khoảng 65%, mang lại mức tiết kiệm thực tế tối thiểu cho khách hàng chuyển đổi. Ông tiết lộ thêm rằng kiến trúc Blackwell sắp tới cung cấp cải tiến lên đến 50 lần về hiệu quả năng lượng so với thế hệ Hopper hiện tại, một bước nhảy vọt đạt được thông qua kiến trúc và phần mềm, chứ không chỉ là những tiến bộ trong sản xuất.
Điều cốt yếu là quyền kiểm soát của Nvidia đối với thị trường tính toán AI, một vị thế đã đẩy định giá của công ty vượt quá 2 nghìn tỷ đô la. Lập luận của Huang là hệ sinh thái phần mềm CUDA có thể lập trình, sâu rộng của công ty và những cải tiến hiệu suất không ngừng nghỉ tạo ra một con hào TCO khiến việc chuyển sang một giải pháp thay thế ít linh hoạt hơn, tập trung hẹp hơn trở thành một quyết định không sáng suốt về mặt tài chính ngay cả đối với những khách hàng lớn nhất.
Sự bất thường của Anthropic
Khi đối mặt với thực tế là các mô hình AI lớn từ Google và Anthropic được đào tạo trên các Đơn vị xử lý Tensor (TPU) của riêng Google, Huang mô tả đó là một trường hợp đặc biệt hơn là một xu hướng. Ông lập luận rằng các khoản đầu tư khổng lồ ban đầu từ Google và Amazon đã buộc Anthropic phải sử dụng phần cứng tương ứng của họ.
"Nếu không có Anthropic, sự tăng trưởng của TPU đến từ đâu? 100% là từ Anthropic," Huang tuyên bố, áp dụng logic tương tự cho các chip Trainium của Amazon. Ông thừa nhận "sai lầm" của chính mình khi không nhận ra quy mô vốn — hàng tỷ đô la — mà các phòng thí nghiệm AI sẽ yêu cầu, điều mà vốn đầu tư mạo hiểm không thể cung cấp, nhưng các nhà cung cấp đám mây có thể đổi lấy các cam kết sử dụng. "Tôi sẽ không mắc lại sai lầm đó nữa," ông nói, ám chỉ đến các khoản đầu tư gần đây hơn của Nvidia vào không gian này.
Chuỗi cung ứng, chứ không phải Đám mây, mới là cuộc chơi
Bất chấp bảng cân đối kế toán dồi dào tiền mặt, Huang thẳng thừng bác bỏ ý tưởng Nvidia xây dựng dịch vụ đám mây của riêng mình để cạnh tranh với khách hàng. Ông nêu rõ triết lý công ty là làm "càng ít càng tốt" bên ngoài sứ mệnh cốt lõi. "Nếu tôi không làm, ai đó cũng sẽ làm đám mây thôi," ông giải thích rằng vai trò của Nvidia là hỗ trợ một hệ sinh thái các đối tác như CoreWeave, chứ không phải trở thành một công ty cho thuê tài chính hay vận hành đám mây.
Về nhu cầu mãnh liệt đối với GPU của công ty, Huang đã bác bỏ quan điểm về một cuộc chiến đấu thầu để được phân bổ. Ông phác thảo một quy trình đơn giản dựa trên đơn đặt hàng và sự sẵn sàng của trung tâm dữ liệu, được điều chỉnh bởi nguyên tắc "đến trước, phục vụ trước". Ông lập luận rằng hạn chế dài hạn thực sự đối với việc mở rộng của AI không phải là sản xuất chip — điều mà ông tin rằng có thể được mở rộng trong vòng hai đến ba năm để đáp ứng bất kỳ nhu cầu nào — mà là năng lượng. "Bạn không thể xây dựng một ngành công nghiệp mà không có điện, và đó là thứ cần một thời gian dài," ông cảnh báo.
Con hào CUDA và Trung Quốc
Cuối cùng, sự tự tin của Huang dựa trên sự tích hợp sâu sắc giữa phần cứng của Nvidia và nền tảng phần mềm CUDA của nó. Cơ sở lắp đặt khổng lồ của hàng trăm triệu GPU và một hệ sinh thái nhà phát triển trưởng thành tạo ra một bánh đà mạnh mẽ. Ông lập luận rằng khả năng phát minh ra các thuật toán và kiến trúc mới, như thuật toán cho phép bước nhảy vọt về hiệu quả gấp 50 lần của Blackwell, chỉ có thể thực hiện được trên một nền tảng có thể lập trình, một sự linh hoạt mà các ASIC được xây dựng cho mục đích riêng biệt còn thiếu.
Đề cập đến các biện pháp kiểm soát xuất khẩu của Hoa Kỳ, Huang duy trì lập trường thực tế về Trung Quốc, nơi ông mô tả là quê hương của 50% các nhà nghiên cứu AI trên thế giới. Ông lập luận rằng việc từ bỏ thị trường lớn thứ hai thế giới sẽ là một sai lầm chiến lược đối với sự dẫn đầu về công nghệ của Mỹ. "Họ không thiếu chip," ông nói, lưu ý rằng các đối thủ cạnh tranh có thể bù đắp cho các hạn chế về phần cứng bằng nhiều năng lượng hơn và tối ưu hóa thuật toán. Ông ủng hộ việc tiếp tục đối thoại và trao đổi nghiên cứu như con đường an toàn nhất phía trước.
Cuộc phỏng vấn của Huang đóng vai trò như một lời nhắn trực tiếp tới các nhà đầu tư đang đặt câu hỏi về tính bền vững trong định giá của Nvidia, vốn đang giao dịch ở mức gấp 35 lần thu nhập dự phóng. Bằng cách định khung cuộc tranh luận xung quanh TCO thay vì chỉ giá chip, ông khẳng định rằng tỷ suất lợi nhuận 70% của công ty không phải là một lỗ hổng mà là phản ánh giá trị vượt trội, giúp công ty tránh khỏi sự cạnh tranh về giá. Rủi ro chính đối với giả thuyết này là nếu một đối thủ cạnh tranh lớn như Google hoặc một công ty khởi nghiệp được tài trợ tốt có thể đưa ra các điểm chuẩn công khai, có thể xác minh cho thấy TCO vượt trội trên một khối lượng công việc AI chính thống, một thách thức mà Huang đã rõ ràng mời gọi.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.