Lần đầu tiên Google chia tách silicon AI tùy chỉnh của mình thành hai dòng riêng biệt, một phản ứng trực tiếp đối với sự thay đổi trong toàn ngành từ việc chỉ huấn luyện các mô hình sang quy trình chạy chúng tốn nhiều tài nguyên tính toán hơn (suy luận). Các Đơn vị Xử lý Tensor (TPU) thế hệ thứ tám mới của công ty, được công bố tại hội nghị Cloud Next, bao gồm một chip mạnh mẽ để huấn luyện và một chip riêng biệt, hiệu quả hơn để suy luận, một động thái thách thức sự thống trị của Nvidia Corp. trên thị trường phần cứng AI.
"Quyết định tạo ra hai loại chip mới là một 'sự tiến hóa tự nhiên'", CEO Google Cloud Thomas Kurian nói với các phóng viên, đồng thời cho biết thêm rằng các chip mới được thiết kế để tiết kiệm năng lượng. "Chúng tôi cảm thấy rằng hiệu quả năng lượng sẽ trở thành một rào cản khi mọi người tiếp tục mở rộng quy mô cả huấn luyện và suy luận."
Dòng sản phẩm mới có TPU 8t, được thiết kế cho quy trình huấn luyện chuyên sâu các mô hình AI quy mô lớn và TPU 8i, được tối ưu hóa cho nhiệm vụ suy luận có khối lượng cao nhưng cường độ thấp hơn — chạy các mô hình để tạo câu trả lời hoặc thực hiện hành động. Google cho biết cả hai chip, đại diện cho một bước nhảy vọt đáng kể so với TPU Ironwood thế hệ thứ bảy của năm ngoái, sẽ được cung cấp rộng rãi vào cuối năm nay. TPU 8i đặc biệt có sự gia tăng lớn về bộ nhớ băng thông cao (HBM), giải quyết "bức tường bộ nhớ" có thể làm chậm các ứng dụng AI đại lý.
Sự phân tách chiến lược này là canh bạc của Google rằng làn sóng lớn tiếp theo trong trí tuệ nhân tạo sẽ là "các đại lý" — các hệ thống AI tự trị có thể lập luận, lập kế hoạch và thực hiện các nhiệm vụ đa bước thay mặt cho người dùng. "AI đang phát triển từ việc trả lời câu hỏi sang lập luận và hành động", các giám đốc hạ tầng của Google là Amin Vahadat và Mark Lohmeyer cho biết trong một bài đăng trên blog. Sự thay đổi này đòi hỏi một lượng lớn tính toán suy luận, một phân khúc thị trường mà Nvidia cũng đang nhắm tới với các chip mới và các thỏa thuận cấp phép.
Để thúc đẩy quá trình chuyển đổi đại lý này, Google cũng đã ra mắt Gemini Enterprise Agent Platform, một hệ thống thống nhất để xây dựng và quản lý các đại lý AI, được hỗ trợ bởi một quỹ mới trị giá 750 triệu USD để giúp các đối tác của mình, bao gồm Accenture, Deloitte và Oracle, xây dựng và triển khai các giải pháp này. Nền tảng này cung cấp quyền truy cập vào hơn 200 mô hình AI, bao gồm gia đình Gemini của riêng Google và các mô hình của bên thứ ba từ các công ty như Anthropic, một khách hàng lớn của Google Cloud TPU.
Động thái xây dựng silicon nội bộ có khả năng cao hơn có thể có ý nghĩa tài chính đáng kể. Doanh thu của Google Cloud đã tăng 48% lên 17,7 tỷ USD trong quý 4 năm 2025, được thúc đẩy bởi nhu cầu AI. Bằng cách phát triển các chip tùy chỉnh có thể giảm bớt sự phụ thuộc vào Nvidia, Google có tiềm năng giảm chi phí và cải thiện biên lợi nhuận. Morgan Stanley ước tính trong một ghi chú vào tháng 12 rằng việc bán 500.000 chip TPU có thể thêm khoảng 13 tỷ USD doanh thu vào bảng cân đối kế toán của Google vào năm 2027.
Các chip mới là một phần của bộ thông báo rộng lớn hơn nhằm tạo ra một hệ thống công nghệ toàn diện, sẵn sàng cho đại lý. Điều này bao gồm "Agentic Data Cloud", một kiến trúc dữ liệu gốc AI và các giải pháp an ninh mạng mới hỗ trợ AI được phát triển với thương vụ mua lại gần đây của họ, Wiz. Bằng cách kiểm soát toàn bộ hệ thống từ phần cứng tùy chỉnh đến nền tảng xây dựng đại lý, Google đang thực hiện một nỗ lực mạnh mẽ để trở thành nhà cung cấp hạ tầng nền tảng cho kỷ nguyên tiếp theo của AI.
Bài viết này chỉ nhằm mục đích cung cấp thông tin và không cấu thành lời khuyên đầu tư.