Key Takeaways:
- 阿里巴巴发布了升级版 Wan 2.7-Video 生成模型。
- 该模型支持文本、图像、视频和音频输入,旨在覆盖完整的创意工作流。
- 功能包括局部编辑、物体替换以及风格转换。
Key Takeaways:

阿里巴巴集团(09988.HK)发布了其升级后的 Wan 2.7-Video 生成模型,这是一款支持文本、图像、视频和音频四种多模态输入的新工具。该模型专注于整合从生成到编辑的整个创意工作流,使阿里巴巴在生成式 AI 视频领域能够更强有力地与 OpenAI 和谷歌等老牌企业竞争。
该公司在公告中表示:“该模型支持包括文本、图像、视频和音频在内的多模态输入,并专注于整个创意工作流。”这种整合方式旨在为内容创作者提供更强的可控性和多功能性,有望降低高质量视频制作的门槛。
Wan 2.7-Video 模型允许用户通过指令对视频场景进行局部调整,编辑区域在光影和纹理方面能自然地融入原始素材。它还支持根据文字指令或参考图像添加或删除元素、替换物体以及修改物体属性。例如,只需一个指令,背景就可以从夏天变为深秋,或者将整个视频风格转换为羊毛毡美学,展现了极高的创意控制力。
此次发布加剧了 AI 视频生成市场的竞争,此前 OpenAI 的 Sora 模型已展示了强大的文本生成视频能力。对于阿里巴巴而言,Wan 2.7-Video 模型的成功有望推动其云计算部门的显著增长,并加强其在全球 AI 竞赛中的整体地位。如果该技术能找到强有力的商业应用,其在香港上市的股票(09988.HK)可能会吸引更多投资者的关注。
Wan 2.7-Video 的一个关键差异点在于其对端到端生产链的关注,而不仅仅局限于简单的生成。虽然竞争对手大多专注于从文本提示词进行初步视频创建,但阿里巴巴的工具提供了一套专为后期制作设计的编辑功能。用户可以根据参考图像精确插入内容,提升视频质量,甚至调整拍摄风格,例如改变镜头角度或应用不同的视觉效果。这可能会减少对多种复杂且昂贵软件工具的需求,从而简化专业人士和业余爱好者的内容创作流程。
该模型在“保持角色动作不变的同时进行环境和风格转换”的能力是一项重大的技术特征。这允许在不重新渲染视频核心元素的情况下实现创意的灵活性。例如,可以在保留角色原始动作的同时更换其服装或场景中的天气。这一能力有望在电影、广告和社交媒体内容制作中节省大量的时间和计算资源。
Wan 2.7-Video 的发布使阿里巴巴与其它投入巨资研发生成式 AI 的大型科技公司展开直接竞争。该模型全面的功能集表明,阿里巴巴的目标不仅是与之抗衡,更是试图在专业和半专业创意工作流中开辟出一块细分市场。对阿里巴巴云部门的潜在影响是巨大的;先进的 AI 模型是云服务消费的主要驱动力,一款流行的视频工具可能会为阿里云吸引新一波客户。
从投资角度看,Wan 2.7-Video 的成功是阿里巴巴整体 AI 战略的关键组成部分。根据彭博行业研究(Bloomberg Intelligence)的数据,全球生成式 AI 市场预计到 2032 年将超过 1.3 万亿美元,而视频生成是其中最受关注且最具竞争力的前沿领域之一。通过提供一款涵盖生成和编辑的多功能工具,阿里巴巴正在进行战略布局,以在这一不断扩大的市场中占据重要份额。市场的反应可能取决于尚未发布的第三方基准测试以及与竞争对手模型的对比结果。
本文仅供参考,不构成投资建议。