性能超越主流开源与闭源模型,赋能短视频、动漫与数字人创作
2025年9月19日,杭州 —— 阿里巴巴旗下通义实验室正式开源其全新动作生成模型 Wan2.2-Animate。该模型支持“动作模仿”与“角色扮演”双模式,仅需一张静态图片与一段参考视频,即可驱动人物、动漫角色甚至动物照片实现高精度动态复刻,广泛适用于短视频创作、舞蹈模板生成、动漫制作及数字人应用等场景。
Wan2.2-Animate 基于此前 Animate Anyone 模型全面升级,在人物一致性、生成质量、表情与肢体动作还原度等关键指标上显著提升。实测显示,其在视频生成质量、主体一致性和感知损失等维度均超越 StableAnimator、LivePortrait 等主流开源模型,并在人类主观评测中表现优于 Runway Act-two 等闭源方案,被誉为“当前性能最强的动作生成模型”。
技术方面,模型依托通义万相自建的大规模人物视频数据集,采用统一表示框架,分别通过骨骼信号与隐式特征精准建模身体运动与面部表情,并引入独立光照融合 LoRA 模块,确保生成画面光影自然、环境融合无缝。
目前,Wan2.2-Animate 已在 GitHub、Hugging Face 及魔搭社区(ModelScope)全面开源,开发者可免费下载模型与代码。普通用户亦可通过 通义万相官网 或 阿里云百炼平台 直接体验其强大功能。