關鍵要點:
- 微軟專有的 MAI 系列專注於透過 Azure 提供企業雲端服務,推出了用於轉錄、語音和圖像生成的新模型。
- Google 的開源 Gemma 4 模型針對從 GPU 到行動裝置的硬體在地執行進行了優化,採用寬鬆的 Apache 2.0 授權。
- 這次雙重發布加劇了 AI 平台之爭,將微軟的整合雲端方案與 Google 加速開源採用的策略推向對立。
關鍵要點:

微軟和 Google 在週四升級了人工智慧領域的競爭,宣布了兩個截然不同的 AI 模型系列,這凸顯了該技術在部署方式上的戰略分歧。微軟正透過其 Azure 雲端獨家發布三個全新的專有「世界級」MAI 模型,而 Google 則透過推出四個旨在各種裝置上在地運行的 Gemma 4 模型,進一步推向開源。
「我們正在迅速部署這些頂級模型,以支持我們自己的消費級和商業產品,」微軟在一份聲明中表示。相比之下,Google 強調了其對開源社群的承諾。「Gemma 4 是當今你可以在在地硬體上運行的最強大的模型系列,」Google 表示,並將其定位為對其更大型專有 Gemini 模型的補充。
微軟透過其 Azure Foundry 平台提供的新陣容包括 MAI-Transcribe-1,這是一款支援 25 種語言的語音轉文本模型,速度比現有解決方案快 2.5 倍。它還推出了 MAI-Voice-1,僅需一秒鐘的樣本即可生成 60 秒的音訊,以及速度更快的文本轉圖像模型 MAI-Image-2,該模型正被整合到 Copilot、Bing 和 PowerPoint 中。
Google 的 Gemma 4 系列透過採用寬鬆的 Apache 2.0 授權標誌著重大轉變,擺脫了以前的定制授權。該系列包括適用於消費級 GPU 的 26B 和 31B 參數版本,為編碼助手和代理工作流程提供支援。更輕量級的 E2B 和 E4B 版本則針對行動和物聯網裝置(包括 Raspberry Pi)上的低延遲、離線使用進行了優化。這些模型已在 Hugging Face、Kaggle 和 Ollama 上提供。
這種戰略分歧對 AI 市場具有重大意義,預計該市場在十年內的收入將超過 1 兆美元。微軟正在加固其企業護城河,利用獨家、高性能模型吸引更多客戶進入其 Azure 生態系統,並增強 Copilot 等產品。這直接挑戰了亞馬遜雲端服務(AWS)和其他企業軟體供應商。
相反,Google 採用寬鬆授權的開源戰略可能會加速封閉系統之外的 AI 開發,潛在地使某些 AI 功能商品化,並建立一個忠於其工具的廣泛開發者生態系統。此舉透過使強大的模型能夠在更廣泛的消費級裝置上運行,對輝達在硬體領域的主導地位構成了壓力,並挑戰了 OpenAI 等競爭對手的封閉模型方法。對於投資者而言,這一分野在微軟整合的、高利潤雲端服務與 Google 成為開放、去中心化 AI 景觀基礎層的長期佈局之間提供了選擇。
本文僅供參考,不構成投資建議。