Bối cảnh công nghệ toàn cầu đang trải qua một sự chuyển đổi đáng kể được thúc đẩy bởi sự chấp nhận ngày càng tăng của các Mô hình Ngôn ngữ Nhỏ (SLM). Các mô hình AI nhỏ gọn nhưng mạnh mẽ này, có ít hơn hai tỷ tham số, đang chứng minh vai trò quan trọng trong việc cung cấp xử lý ngôn ngữ tự nhiên hiệu quả và chính xác, đặc biệt trong các môi trường hạn chế tài nguyên và các ứng dụng dữ liệu nhạy cảm. Một báo cáo đánh giá toàn diện gần đây đã nêu bật vị trí chiến lược và vai trò dẫn đầu của các đối thủ chủ chốt như Microsoft (MSFT), IBM (IBM), và Infosys (INFY.NS), cho thấy một sự chuyển dịch then chốt hướng tới các giải pháp trí tuệ nhân tạo được tối ưu hóa, trên thiết bị.

Chi tiết sự kiện

Báo cáo "Mô hình Ngôn ngữ Nhỏ (SLM) Quadrant" của các công ty, dựa trên đánh giá hơn 100 công ty, nhấn mạnh tầm ảnh hưởng ngày càng tăng của SLM trên các lĩnh vực quan trọng bao gồm Chăm sóc sức khỏe, Tài chínhSản xuất. Không giống như các đối tác lớn hơn, SLM được thiết kế để tối ưu hiệu quả, khiến chúng trở nên lý tưởng để tích hợp vào các thiết bị công suất thấp và môi trường nơi quyền riêng tư dữ liệu là tối quan trọng. Microsoft đang tận dụng chiến lược nền tảng Azure AI của mình để triển khai các SLM có thể mở rộng và tùy chỉnh, tạo điều kiện tích hợp liền mạch trên các thiết bị biên trong khi vẫn duy trì hiệu suất cao. Sự hợp tác của công ty với OpenAI càng tăng cường khả năng tiếp cận các mô hình ngôn ngữ tiên tiến, cho phép các hệ thống AI lai kết hợp khả năng AI dựa trên đám mây và AI biên. IBM củng cố vị thế của mình trên thị trường SLM thông qua các giải pháp AI doanh nghiệp mạnh mẽ, đặc biệt tập trung vào các ngành đòi hỏi các biện pháp bảo mật nghiêm ngặt. Các dịch vụ đám mây lai của công ty hỗ trợ việc triển khai các mô hình AI thích ứng, đảm bảo tuân thủ và quyền riêng tư dữ liệu. IBM Watson tiếp tục là một thành phần cốt lõi trong việc đưa học máy và các hiểu biết đổi mới vào các hoạt động doanh nghiệp. Infosys đang tích cực mở rộng các dịch vụ SLM của mình, đáp ứng nhu cầu ngày càng tăng đối với các ứng dụng chuyên biệt theo từng lĩnh vực. Chuyên môn của Infosys trong việc tinh chỉnh và cung cấp các công cụ AI cấp doanh nghiệp giúp Infosys có vị trí thuận lợi để phục vụ các ngành yêu cầu các mô hình AI chuyên biệt.

Phân tích phản ứng thị trường và tác động cơ sở hạ tầng

Sự chấp nhận rộng rãi của SLM đang tạo ra những làn sóng đáng kể trên toàn bộ hệ sinh thái AI, tác động đáng kể đến nhu cầu chip AI cao cấp và dịch vụ điện toán đám mây, đồng thời đẩy nhanh quá trình chuyển đổi sang xử lý trên thiết bị. Toàn bộ thị trường cơ sở hạ tầng AI được định giá xấp xỉ 87,6 tỷ USD trong quý 3 năm 2025 và dự kiến sẽ tăng trưởng với Tỷ lệ tăng trưởng kép hàng năm (CAGR) là 17,71% để đạt 197,64 tỷ USD vào năm 2030, trong đó phần cứng chiếm 72,1% chi tiêu hiện tại. Thị trường tiềm năng cho riêng chip tăng tốc AI được dự báo sẽ đạt 500 tỷ USD vào năm 2028, nhấn mạnh khoản đầu tư khổng lồ đổ vào lĩnh vực này.

NVIDIA Corp. (NVDA) tiếp tục giữ vị trí thống lĩnh trong thị trường bộ tăng tốc AI cao cấp, được báo cáo chiếm 80-90% thị phần. Vị trí dẫn đầu này chủ yếu được thúc đẩy bởi nhu cầu mạnh mẽ đối với Đơn vị xử lý đồ họa (GPU) và hệ sinh thái phần mềm CUDA nền tảng, vốn rất quan trọng đối với các mô hình ngôn ngữ lớn và cơ sở hạ tầng AI. Việc sản xuất quy mô đầy đủ nền tảng Blackwell của NVIDIA, bắt đầu vào đầu năm 2025, dự kiến sẽ duy trì doanh thu đáng kể cho công ty. Thị trường điện toán đám mây cũng đang trải qua sự tăng trưởng bùng nổ, được thúc đẩy bởi các khối lượng công việc liên quan đến AI. Được định giá 0,86 nghìn tỷ USD vào năm 2025, nó được dự báo sẽ mở rộng lên 2,26 nghìn tỷ USD vào năm 2030, phản ánh tốc độ CAGR nhanh chóng là 21,20%. Amazon Web Services (AMZN) dự kiến sẽ tạo ra 126,5 tỷ USD doanh thu vào năm 2025, tăng 18,3% so với cùng kỳ năm trước, phần lớn được thúc đẩy bởi các khối lượng công việc liên quan đến AI và đầu tư cơ sở hạ tầng ngày càng tăng. Microsoft Corp. (MSFT) có kế hoạch cam kết khoảng 80 tỷ USD để tăng cường cơ sở hạ tầng trung tâm dữ liệu vào năm 2025, cùng với 3 tỷ USD bổ sung trong hai năm để mở rộng năng lực đám mây và AI ở Ấn Độ. Những khoản đầu tư này làm nổi bật tầm quan trọng chiến lược được đặt vào cơ sở hạ tầng AI cơ bản bởi các gã khổng lồ công nghệ.

Sự trỗi dậy của AI biên và xử lý trên thiết bị

Một xu hướng đáng chú ý nổi lên từ mô hình SLM là nhu cầu ngày càng tăng đối với AI biên, hay xử lý trên thiết bị. Điều này liên quan đến việc xử lý dữ liệu cục bộ trên các thiết bị như điện thoại di động, thiết bị IoT và xe tự hành, do đó giảm sự phụ thuộc vào máy chủ đám mây tập trung. Phân khúc này mang lại cơ hội tăng trưởng đáng kể cho các công ty như Advanced Micro Devices Inc. (AMD) và Intel Corp. (INTC), những công ty đang tích cực phát triển Bộ xử lý thần kinh (NPU) chuyên dụng cho các ứng dụng này. Đến năm 2025, suy luận AI – quá trình áp dụng một mô hình AI vào dữ liệu mới – dự kiến sẽ ngày càng nằm trên các thiết bị AI biên do những lợi ích vốn có của thời gian phản hồi nhanh hơn, tiêu thụ băng thông giảm và quyền riêng tư dữ liệu được nâng cao. Thị trường chip AI biên được dự báo sẽ đạt 12,2 tỷ USD doanh thu vào năm 2025, có khả năng vượt qua doanh thu chip AI đám mây, ước tính là 11,9 tỷ USD trong cùng kỳ. Sự tăng trưởng này được thúc đẩy bởi nhu cầu ngày càng tăng về xử lý độ trễ thấp và sự sẵn có của các chip chi phí thấp, công suất cực thấp.

Đẩy mạnh chip tùy chỉnh của các nhà cung cấp siêu quy mô và cạnh tranh thị trường

Trong khi NVIDIA duy trì vị trí dẫn đầu trong đào tạo AI cao cấp, bối cảnh đang phát triển với AMD nổi lên như một đối thủ đáng gờm. Bộ tăng tốc AMD Instinct MI series, chẳng hạn như MI300X, đang chứng tỏ tính cạnh tranh trong suy luận mô hình ngôn ngữ lớn, định vị AMD để củng cố vai trò là người chơi mạnh thứ hai. Các nhà cung cấp đám mây siêu quy mô, bao gồm Google (GOOGL), Amazon (AMZN) và Microsoft (MSFT), đang đầu tư đáng kể vào việc phát triển chip tùy chỉnh của riêng họ. Động thái chiến lược này ảnh hưởng đến lợi nhuận dịch vụ đám mây của họ nhưng thúc đẩy sự khác biệt cạnh tranh, báo hiệu một hệ sinh thái AI đa nền tảng trong tương lai nơi NVIDIA có thể đối mặt với sự cạnh tranh ngày càng tăng và điều chỉnh thị phần tiềm năng trong các phân khúc ngoài đào tạo cao cấp. Việc phi tập trung hóa cơ sở hạ tầng AI thông qua các sáng kiến AI biên và AI có chủ quyền dự kiến sẽ tiếp tục đa dạng hóa nhu cầu và kích thích đổi mới trong việc phát triển các chip công suất thấp, hiệu suất cao.

Ý nghĩa đối với tăng trưởng ngành và triển vọng đầu tư

Những tiến bộ nhanh chóng và việc triển khai SLM được dự đoán sẽ thúc đẩy tăng trưởng liên tục trên Lĩnh vực Công nghệ, đặc biệt nhấn mạnh vào AI, Chăm sóc sức khỏe, Tài chínhSản xuất. Sự chuyển đổi sang các giải pháp AI hiệu quả, trên thiết bị được dự kiến sẽ thúc đẩy nhu cầu về phần cứng và phần mềm chuyên dụng, tạo ra các con đường mới cho những người tham gia thị trường. Cuộc cạnh tranh giữa các gã khổng lồ công nghệ để giành thị phần trong các ứng dụng công nghiệp khác nhau dự kiến sẽ tăng cường, dẫn đến đổi mới hơn nữa và các đối tác chiến lược. Các công ty có dịch vụ SLM mạnh mẽ và khả năng tích hợp tốt có khả năng trải nghiệm tăng trưởng về tỷ lệ chấp nhận và doanh thu, trong khi những công ty chậm thích ứng với những thay đổi công nghệ này có thể đối mặt với những thách thức đáng kể. Sự xuất hiện của AI đại lý – các hệ thống tự động theo đuổi mục tiêu và đưa ra quyết định – báo hiệu một biên giới khác trong đổi mới AI, với dự kiến tăng trưởng thị trường đạt hàng nghìn tỷ vào năm 2030, đặc biệt trong các lĩnh vực như tài chính phi tập trung (DeFi). Các công cụ đầu tư như SoFi Agentic AI ETF đã cung cấp cho các nhà đầu tư quyền tiếp cận các công ty dẫn đầu trong không gian chuyển đổi này, nhấn mạnh niềm tin của thị trường vào tiềm năng dài hạn của các hệ thống AI tự trị. Sự tương tác giữa SLM, AI biên và AI đại lý sẽ là những yếu tố quan trọng cần theo dõi trong bối cảnh thị trường chứng khoán đang phát triển.