Key Takeaways:
- 阿里巴巴發佈了升級版 Wan 2.7-Video 生成模型。
- 該模型支援文本、圖像、視頻和音訊輸入,旨在覆蓋完整的創意工作流。
- 功能包括局部編輯、物體替換以及風格轉換。
Key Takeaways:

阿里巴巴集團(09988.HK)發佈了其升級後的 Wan 2.7-Video 生成模型,這是一款支援文本、圖像、視頻和音訊四種多模態輸入的新工具。該模型專注於整合從生成到編輯的整個創意工作流,使阿里巴巴在生成式 AI 視頻領域能夠更強有力地與 OpenAI 和 Google 等老牌企業競爭。
該公司在公告中表示:「該模型支援包括文本、圖像、視頻和音訊在內的多模態輸入,並專注於整個創意工作流。」這種整合方式旨在為內容創作者提供更強的可控性和多功能性,有望降低高品質視頻製作的門檻。
Wan 2.7-Video 模型允許用戶通過指令對視頻場景進行局部調整,編輯區域在光影和紋理方面能自然地融入原始素材。它還支援根據文字指令或參考圖像添加或刪除元素、替換物體以及修改物體屬性。例如,只需一個指令,背景就可以從夏天變為深秋,或者將整個視頻風格轉換為羊毛氈美學,展現了極高的創意控制力。
此次發佈加劇了 AI 視頻生成市場的競爭,此前 OpenAI 的 Sora 模型已展示了強大的文本生成視頻能力。對於阿里巴巴而言,Wan 2.7-Video 模型的成功有望推動其雲端運算部門的顯著增長,並加強其在全球 AI 競賽中的整體地位。如果該技術能找到強有力的商業應用,其在香港上市的股票(09988.HK)可能會吸引更多投資者的關注。
Wan 2.7-Video 的一個關鍵差異點在於其對端到端生產鏈的關注,而不僅僅局限於簡單的生成。雖然競爭對手大多專注於從文本提示詞進行初步視頻創建,但阿里巴巴的工具提供了一套專為後期製作設計的編輯功能。用戶可以根據參考圖像精確插入內容,提升視頻品質,甚至調整拍攝風格,例如改變鏡頭角度或應用不同的視覺效果。這可能會減少對多種複雜且昂貴軟體工具的需求,從而簡化專業人士和業餘愛好者的內容創作流程。
該模型在「保持角色動作不變的同時進行環境和風格轉換」的能力是一項重大的技術特徵。這允許在不重新渲染視頻核心元素的情況下實現創意的靈活性。例如,可以在保留角色原始動作的同時更換其服裝或場景中的天氣。這一能力有望在電影、廣告和社交媒體內容製作中節省大量的時間和計算資源。
Wan 2.7-Video 的發佈使阿里巴巴與其他投入巨資研發生成式 AI 的大型科技公司展開直接競爭。該模型全面的功能集表明,阿里巴巴的目標不僅是與之抗衡,更是試圖在專業和半專業創意工作流中開闢出一塊細分市場。對阿里巴巴雲端部門的潛在影響是巨大的;先進的 AI 模型是雲端服務消費的主要驅動力,一款流行的視頻工具可能會為阿里雲吸引新一波客戶。
從投資角度看,Wan 2.7-Video 的成功是阿里巴巴整體 AI 戰略的關鍵組成部分。根據彭博行業研究(Bloomberg Intelligence)的數據,全球生成式 AI 市場預計到 2032 年將超過 1.3 萬億美元,而視頻生成是其中最受關注且最具競爭力的前沿領域之一。通過提供一款涵蓋生成和編輯的多功能工具,阿里巴巴正在進行戰略佈局,以在這一不斷擴大的市場中佔據重要份額。市場的反應可能取決於尚未發佈的第三方基準測試以及與競爭對手模型的對比結果。
本文僅供參考,不構成投資建議。