Một bộ ba chuyên gia kỳ cựu từ Google và Meta đã đảm bảo được khoản tài trợ 100 triệu USD để giải quyết nút thắt cổ chai quan trọng trong tính toán AI, vốn khiến ngay cả những con chip mạnh mẽ nhất cũng phải rơi vào trạng thái nhàn rỗi. Công ty khởi nghiệp Majestic Labs AI đang phát triển một kiến trúc máy chủ mới được thiết kế để phá vỡ "rào cản bộ nhớ" (memory wall), một vấn đề đang gây khó khăn cho các trung tâm dữ liệu và lãng phí hàng tỷ USD phần cứng hiệu suất cao từ các nhà sản xuất chip như Nvidia.
Sứ mệnh của công ty là thiết kế lại luồng dữ liệu bên trong máy chủ để bắt kịp với nhu cầu khổng lồ của các mô hình AI hiện đại. Các nhà sáng lập cho biết: "Các mô hình AI khổng lồ đang làm quá tải các máy chủ và khiến các con chip hiệu suất cao bị nhàn rỗi," đồng thời phác thảo một vấn đề mà họ đã trực tiếp chứng kiến khi phát triển silicon tùy chỉnh tại Google thuộc Alphabet và Meta Platforms.
Majestic Labs AI được thành lập bởi Ofer Shacham, Masumi Reynders và Sha Rabii, những người trước đây đã làm việc trên các chip trung tâm dữ liệu của Google và sau đó xây dựng đội ngũ silicon tùy chỉnh tại Meta Reality Labs. Vòng gọi vốn 100 triệu USD của họ, được công bố vào tháng 11, bao gồm sự hỗ trợ từ Bow Wave Capital, Lux Capital và Grove, cùng nhiều tổ chức khác.
Khoản đầu tư này làm nổi bật một thách thức quan trọng đối với toàn bộ ngành công nghiệp AI. Khi các mô hình AI tăng dần về quy mô và độ phức tạp, chi phí vận hành chúng tăng vọt, không chỉ ở mức tiêu thụ điện năng mà còn ở tiềm năng bị lãng phí. Giải quyết nút thắt bộ nhớ có thể cải thiện đáng kể hiệu quả tính toán AI, có khả năng thay đổi bối cảnh cạnh tranh cho cả các nhà thiết kế chip và nhà cung cấp dịch vụ đám mây.
Tình trạng tắc nghẽn hàng tỷ đô la
"Rào cản bộ nhớ" là một vấn đề dai dẳng trong tính toán, nhưng nó đã trở nên trầm trọng hơn bởi quy mô của AI ngày nay. Vấn đề không nằm ở sức mạnh xử lý của các chip như GPU H100 của Nvidia, mà ở tốc độ cung cấp dữ liệu cho chúng. Điều này tạo ra một sự tắc nghẽn giao thông nơi bộ vi xử lý phải chờ đợi dữ liệu, lãng phí các chu kỳ và năng lượng. Vấn đề này là biểu hiện thực tế của "lời nguyền đa chiều" (curse of dimensionality), một thuật ngữ được các nhà vật lý và toán học sử dụng để mô tả cách chi phí tính toán có thể tăng theo cấp số nhân khi có nhiều biến số được thêm vào một hệ thống.
Đối với các công ty chi hàng tỷ USD cho cơ sở hạ tầng AI, sự kém hiệu quả này là một đòn giáng trực tiếp vào lợi nhuận. Một máy chủ chứa đầy các bộ vi xử lý mạnh mẽ nhưng không được tận dụng hết công suất đại diện cho một khoản chi phí vốn đáng kể với lợi nhuận giảm dần. Theo nghiên cứu từ Viện Flatiron, việc vượt qua lời nguyền đa chiều này là một trong những động lực chính cho các phương pháp tính toán lấy dữ liệu làm trung tâm mới, bao gồm cả phần cứng chuyên dụng.
Một kiến trúc mới cho AI
Trong khi các đối thủ cạnh tranh như Google với Đơn vị xử lý Tensor (TPU) và Amazon với chip Trainium đã tập trung vào việc thiết kế các bộ vi xử lý tốt hơn, Majestic Labs đang giải quyết vấn đề ở cấp độ thiết kế máy chủ. Cách tiếp cận của công ty, mặc dù chưa được trình bày chi tiết đầy đủ, gợi ý về một sự thiết kế lại toàn diện cách bộ nhớ và xử lý được tích hợp trong một tủ máy chủ (server rack), nhằm loại bỏ các nút thắt cổ chai tồn tại giữa các chip.
Chiến lược này đưa công ty khởi nghiệp vào thế đối đầu không chỉ với các nhà sản xuất chip lâu đời như Nvidia và AMD, mà còn với các nỗ lực phần cứng nội bộ của các nhà tuyển dụng cũ của những người sáng lập là Google và Meta. Những gã khổng lồ công nghệ này đã đầu tư mạnh mẽ vào việc tạo ra silicon tùy chỉnh của riêng họ để tối ưu hóa khối lượng công việc AI và giảm sự phụ thuộc vào các nhà cung cấp bên thứ ba. Thành công của Majestic Labs sẽ phụ thuộc vào khả năng cung cấp một giải pháp không chỉ hiệu quả hơn mà còn tương thích rộng rãi với các phần cứng và phần mềm đa dạng được sử dụng trong toàn ngành.
Bài viết này chỉ mang tính chất thông tin và không cấu thành lời khuyên đầu tư.