Next-Frame Diffusion— 北大联合微软推出的自回归视频生成模型

聖光之護
发布: 2025-06-15 22:43:51
原创
848人浏览过

next-frame diffusion(nfd)是由北京大学与微软研究院共同研发的自回归视频生成模型,它融合了扩散模型在生成质量上的优势以及自回归模型在因果性和可控性方面的特点。该模型通过块因果注意力机制(block-wise causal attention)和扩散变换器(diffusion transformer)实现高效的逐帧生成,在保证视频连贯性的同时,能够达到超过30fps的实时生成速度。此外,模型还引入了一致性蒸馏(consistency distillation)和推测性采样(speculative sampling)等技术手段,进一步提升了生成效率,并在大规模动作驱动的视频生成任务中展现出优于现有方法的表现。

Next-Frame Diffusion— 北大联合微软推出的自回归视频生成模型Next-Frame Diffusion的核心功能

  • 实时视频生成:可在高性能GPU上实现实时生成超过30FPS的视频内容,适用于需要快速响应的交互式场景,如游戏、虚拟现实及实时视频编辑
  • 高保真度生成:在连续空间中生成高质量视频,相比传统自回归模型更能保留细节与纹理信息。
  • 动作驱动生成:根据用户的实时操作指令生成对应的视频内容,具备高度灵活性和可控性,适合多种交互应用。
  • 长序列视频生成:支持任意长度视频的生成,适用于故事叙述或模拟环境等需长期连贯性的场景。

Next-Frame Diffusion的技术机制

  • 块因果注意力机制(Block-wise Causal Attention):这是模型的核心结构,结合了帧内双向注意力与帧间因果依赖。在每一帧内部进行双向自注意力计算以捕捉空间信息,而在帧之间则保持因果关系,即当前帧仅依赖于之前的帧,从而确保时间上的连贯性。
  • 扩散模型与扩散变换器(Diffusion Transformer):基于扩散模型原理,通过逐步去噪生成视频帧。扩散变换器作为关键组件,利用Transformer架构处理视频中的时空相关性。
  • 一致性蒸馏(Consistency Distillation):为提升采样效率,将图像领域的一致性模型sCM(Simplified Consistency Model)拓展至视频生成领域,显著加快生成速度同时维持高质量输出。
  • 推测性采样(Speculative Sampling):利用相邻帧之间的动作输入一致性,提前预测未来若干帧内容。若后续动作发生变化,则丢弃推测结果并从最近有效帧重新生成,大幅缩短推理时间。
  • 动作条件输入(Action Conditioning):模型通过接收动作信号(如用户操作指令或其他控制信息)来引导视频生成的内容和方向。

Next-Frame Diffusion的项目资源

Next-Frame Diffusion的应用领域

  • 游戏开发:根据玩家实时操作动态生成游戏场景,增强互动体验。
  • 虚拟现实(VR)与增强现实(AR):实时构建虚拟环境,提升沉浸感。
  • 影视广告制作:用于生成高质量视频素材,应用于影视、广告等内容创作。
  • 自动驾驶与机器人:模拟不同场景下的车辆或机器人行为,辅助训练与测试。
  • 教育与培训:构建虚拟实验平台,辅助教学与实践操作。

以上就是Next-Frame Diffusion— 北大联合微软推出的自回归视频生成模型的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号