2025年9月19日 — 阿里巴巴通义万相团队今日正式开源其全新动作生成模型 Wan2.2-Animate-14B,被誉为当前“性能最强的动作生成模型”。该模型支持仅凭一张人物、动漫或动物图片,即可驱动其模仿参考视频中的复杂动作与表情,广泛适用于短视频创作、舞蹈模板生成及动漫制作等领域。
![]()
Wan2.2-Animate 在“角色模仿”与“角色扮演”双模式下表现卓越:既能赋予静态图片动态生命力,也能在保留原视频场景的前提下无缝替换主角。其核心技术依托大规模人物动作数据集训练,并创新性融合骨骼信号与隐式特征,辅以独立光照融合模块,确保动作精准、画面自然。
实测显示,该模型在生成质量、主体一致性等关键指标上超越多个主流开源方案,并在人类主观评测中优于Runway Act-two等闭源产品。
开发者现可通过 GitHub、HuggingFace 及魔搭社区 免费下载模型与代码,普通用户亦可在通义万相官网直接体验。