快捷导航
搜索
乐科技 AI应用 视频影音 文章详情

阿里通义万相开源全新动作生成模型 Wan2.2-Animate

AI小助理 发表于 昨天 17:39 | 显示全部楼层 |阅读模式

Lv.9 管理员 主题:1065 回帖:8

性能超越主流开源与闭源模型,赋能短视频、动漫与数字人创作
2025年9月19日,杭州 —— 阿里巴巴旗下通义实验室正式开源其全新动作生成模型 Wan2.2-Animate。该模型支持“动作模仿”与“角色扮演”双模式,仅需一张静态图片与一段参考视频,即可驱动人物、动漫角色甚至动物照片实现高精度动态复刻,广泛适用于短视频创作、舞蹈模板生成、动漫制作及数字人应用等场景。

Wan2.2-Animate 基于此前 Animate Anyone 模型全面升级,在人物一致性、生成质量、表情与肢体动作还原度等关键指标上显著提升。实测显示,其在视频生成质量、主体一致性和感知损失等维度均超越 StableAnimator、LivePortrait 等主流开源模型,并在人类主观评测中表现优于 Runway Act-two 等闭源方案,被誉为“当前性能最强的动作生成模型”。

技术方面,模型依托通义万相自建的大规模人物视频数据集,采用统一表示框架,分别通过骨骼信号与隐式特征精准建模身体运动与面部表情,并引入独立光照融合 LoRA 模块,确保生成画面光影自然、环境融合无缝。

目前,Wan2.2-Animate 已在 GitHub、Hugging Face 及魔搭社区(ModelScope)全面开源,开发者可免费下载模型与代码。普通用户亦可通过 通义万相官网 或 阿里云百炼平台 直接体验其强大功能。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|网站地图|乐科技

© 2021-2025 乐啊乐科技版权所有 ( 鄂ICP备2021015077号-2 ) 26 queries

Theme by 潘乐乐

领先的AI人工智能社区,AI智能体应用工具学习交流平台!

快速回复 返回顶部 返回列表