近日,通义万相正式发布wan2.2 - animate模型,只需上传一张人物图像和一段视频,即可实现精准的动作复刻与角色替换。无论是让静态图片中的人物“跳起舞蹈”,还是在影视后期中“更换主角”,都能生成媲美电影质感的动态效果,广泛适用于剧情魔改、影视换人、创意短视频等多样化场景。
该模型依托四大核心技术实现关键突破。第一,采用统一架构设计。通过优化输入方式,将“图生动作”(Move模式)与“视频换人”(Mix模式)整合为同一符号体系,模型可根据输入内容自动识别并切换生成模式,无需分别训练两个独立模型,显著提升了开发效率与资源利用效率。
第二,实现表情与肢体的高精度控制。系统将控制信号拆解为两部分:身体动作通过VitPose提取2D骨骼信息,并注入初始噪声的潜在向量中,确保姿态迁移准确无误;面部表情则直接对参考视频中的人脸图像进行编码,生成帧级隐式潜在特征,借助时序对齐的交叉注意力机制进行注入,避免传统方法依赖人工关键点导致的细节丢失,从而真实还原眼神流转、嘴角微动等细腻表情。过去多数AI只能模仿大致动作,面部僵硬或失真严重,而如今Wan2.2能完整复现原视频中的情绪表达,使输出质量从“娱乐级”跃升至“专业电影级”。
第三,支持角色替换后的自然光影融合。在Mix模式中引入Relighting LoRA模块,基于IC-Light合成数据训练,可在保持角色外观不变的前提下,学习目标视频的光照环境与色彩风格,使新角色真正“融入”原场景,而非生硬“贴图”。即使面对带有运镜、晃动镜头的复杂视频,也能实现无缝衔接。以往常见的AI换人结果常因光影不匹配显得虚假,如同贴纸一般突兀;而通义此技术通过“光影重塑”能力,精准还原阴影方向、明暗过渡与色调一致性,视觉上几乎无法分辨真假,宛如实拍。
第四,全面开源完整工作流。团队开放了包括模板视频预处理代码(用于从驱动视频提取模板文件)以及模型推理代码(输入模板与角色图生成视频),极大降低了开发者调用门槛,助力更多姿态驱动类模型的效果提升与应用拓展。
Wan2.2 - Animate是在此前开源的Animate Anyone模型基础上全面升级而来,不仅在人物一致性、画面清晰度、动作流畅性等方面取得显著进步,更同时支持“动作迁移”与“角色替换”双模式。在动作迁移模式下,用户上传一张角色图片和一段动作视频,即可让图片中的人物复现视频中的动作与表情;在角色替换模式下,则可在保留原始视频动作、环境与镜头运动的基础上,将原有人物替换为目标角色。
为支撑这一模型的研发,通义万相团队构建了一个大规模人物视频数据集,涵盖说话、表情变化与全身动作等多种行为,并基于通义万相图生视频模型进行了深度后训练。目前该模型已可成功驱动真人、动漫形象乃至动物照片,广泛适用于短视频创作、舞蹈模板生成、动画制作等多个领域。
现阶段,用户可通过通义万相官网(国内站与国际站 https://www.php.cn/link/b532f0f8baa4651aac8ccd180dcba01d Face及GitHub三大平台开源,便于二次开发与创意落地。通义万相此次推出Wan2.2 - Animate,既以技术创新攻克了“看起来假”的行业难题,又以开源策略打破了“用起来难”的普及壁垒,真正推动AI视频生成迈向实用化新阶段。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜


以上就是通义万相新模型Wan2.2,上传图换视频角色,光影表情超逼真!的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号