近日,通义万相正式发布wan2.2 - animate模型,主打“上传一张人物图 + 一段视频”即可实现动作复刻与角色替换的全新功能。无论是让静态图像中的人物“跳起舞蹈”,还是在影视后期中“更换主角”,都能生成媲美电影级别的动态效果,广泛适用于剧情魔改(如角色穿越混搭)、影视换人等创意应用场景。
该模型是在此前通义万相开源的Animate Anyone基础上全面升级而来,不仅在人物一致性、画面质量等方面显著提升,更首次同时支持动作模仿与角色扮演两种模式。在动作模仿模式下,只需输入一张角色图片和一段驱动视频,模型即可将视频中人物的动作与表情精准迁移至图片角色上,赋予其生动的动态表现力;而在角色扮演模式下,则可在保留原视频动作、表情及背景环境的前提下,将其中的角色无缝替换为指定图片中的形象。
为实现这一突破,通义万相团队构建了一个大规模人物视频数据集,涵盖丰富的说话场景、面部微表情与全身动作,并基于通义万相图生视频模型进行深度后训练。模型依托四大核心技术实现领先性能:
统一模型架构设计:通过优化输入范式,将“图生动作”(Move模式)与“视频换人”(Mix模式)统一为同一符号表示体系。模型可根据输入内容自动切换生成模式,无需分别训练两个独立模型,极大提升了开发效率与资源利用率。
精细化控制肢体与表情:将控制信号拆解为两部分处理——身体动作由VitPose提取的2D骨骼关键点注入初始噪声潜在向量,确保姿态迁移准确自然;面部表情则直接对参考视频中的人脸原始图像进行帧级隐式编码,借助时序对齐的交叉注意力机制注入模型,避免传统关键点方法丢失细节的问题,真实还原细微表情变化。
真实光影融合能力:在Mix模式中引入Relighting LoRA模块,基于IC-Light合成数据训练,能够在保持角色外观一致的同时,学习目标视频的光照条件与色彩风格,使新角色真正“融入”原场景,而非简单“贴图”。该技术原生支持包含运镜运动、镜头抖动在内的复杂视频输入。
完整开源工作流:提供从模板视频预处理到模型推理的全流程代码支持,包括驱动视频转模板文件的处理脚本,以及输入模板+角色图生成视频的推理接口,助力开发者全面提升各类姿态驱动模型的表现效果。
实测数据显示,Wan2.2 - Animate在视频质量、主体一致性、感知损失等多项关键指标上超越StableAnimator、LivePortrait等主流开源方案,成为当前性能最强的动作生成模型。在人类主观评测中,其表现甚至优于Runway Act-one等闭源商业模型。
目前,用户可通过通义万相官网(国内站与国际站 https://www.php.cn/link/62dee803f4071bd95a11e66e9b8324a7 Face及GitHub三大平台,便于二次开发与创意落地。
值得一提的是,在2025杭州云栖大会上,阿里巴巴还发布了通义万相Wan2.5 preview系列模型,涵盖文生视频、图生视频、文生图和图像编辑四大核心能力。其中,通义万相2.5视频生成模型首次实现音画同步——可自动生成与画面匹配的人声解说、环境音效及背景音乐(BGM),大幅降低高质量视频创作门槛。
通义万相2.5在创作能力上实现全方位跃升:
截至目前,通义万相模型家族已具备文生图、文生视频、图生视频、人声驱动视频、动作生成等十余种视觉创作能力,累计生成图片达3.9亿张,视频超7000万个。自今年2月以来,已连续开源超过20款模型,在ModelScope、Hugging Face等社区的下载量突破3000万次,持续领跑AIGC开源生态。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜



以上就是通义万相新模型上传图复刻动作,2.5系列升级实现音画同步!的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号