0

0

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

PHPz

PHPz

发布时间:2024-02-26 10:43:13

|

1168人浏览过

|

来源于51CTO.COM

转载

扩散模型,迎来了一项重大新应用——

像Sora生成视频一样,给神经网络生成参数,直接打入了AI的底层!

这就是新加坡国立大学尤洋教授团队联合UCB、Meta AI实验室等机构最新开源的研究成果。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

具体来说,研究团队提出了一种用于生成神经网络参数的扩散模型p(arameter)-diff。

用它来生成网络参数,速度比直接训练最多提高44倍,而且表现毫不逊色。

该模型一经发布后,在AI社区迅速引起了激烈的讨论,圈内专家对其表现出了与普通人看到Sora时一样的惊叹态度。

甚至有人直接惊呼,这基本上相当于AI在创造新的AI了。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

就连AI巨头LeCun看了之后,也点赞了这一成果,表示这真的是个cute idea。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

而实质上,p-diff也确实具有和Sora一样重大的意义,对此同实验室的Fuzhao Xue(薛复昭)博士进行了详细解释:

Sora生成高维数据,即视频,这使得Sora成为世界模拟器(从一个维度接近AGI)。

而这项工作,神经网络扩散,可以生成模型中的参数,具有成为元世界级学习器/优化器的潜力,从另一个新的重要维度向AGI迈进。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

言归正传,p-diff到底是如何生成神经网络参数的呢?

将自编码器与扩散模型结合

要弄清这个问题,首先要了解一下扩散模型和神经网络各自的工作特点。

扩散生成过程,是从随机分布到高度特定分布的转变,通过复合噪声添加,将视觉信息降级为简单噪声分布。

而神经网络训练,同样遵循这样的转变过程,也同样可以通过添加噪声的方式来降级,研究人员正是在这一特点的启发之下提出p-diff方法的。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

从结构上看,p-diff是研究团队在标准潜扩散模型的基础之上,结合自编码器设计的。

研究者首先从训练完成、表现较好的网络参数中选取一部分,并展开为一维向量形式。

Narration Box
Narration Box

Narration Box是一种语音生成服务,用户可以创建画外音、旁白、有声读物、音频页面、播客等

下载

然后用自编码器从一维向量中提取潜在表示,作为扩散模型的训练数据,这样做可以捕捉到原有参数的关键特征。

训练过程中,研究人员让p-diff通过正向和反向过程来学习参数的分布,完成后,扩散模型像生成视觉信息的过程一样,从随机噪声中合成这些潜在表示。

最后,新生成的潜在表示再被与编码器对应的解码器还原成网络参数,并用于构建新模型。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

下图是通过p-diff、使用3个随机种子从头开始训练的ResNet-18模型的参数分布,展示了不同层之间以及同一层不同参数之间的分布模式。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

为了评估p-diff所生成参数的质量,研究人员利用3种类型、每种两个规模的神经网络,在8个数据集上对其进行了测试。

下表中,每组的三个数字依次表示原始模型、集成模型和用p-diff生成的模型的测评成绩。

结果可以看到,用p-diff生成的模型表现基本都接近甚至超过了人工训练的原始模型。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

效率上,在不损失准确度的情况下,p-diff生成ResNet-18网络的速度是传统训练的15倍,生成Vit-Base的速度更是达到了44倍。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

额外的测试结果证明,p-diff生成的模型与训练数据有显著差异。

从下图(a)可以看到,p-diff生成的模型之间的相似度低于各原始模型之间的相似度,以及p-diff与原始模型的相似度。

而从(b)和(c)中可知,与微调、噪声添加方式相比,p-diff的相似度同样更低。

这些结果说明,p-diff是真正生成了新的模型,而非仅仅记忆训练样本,同时也表明其具有良好的泛化能力,能够生成与训练数据不同的新模型。

打入AI底层!NUS尤洋团队用扩散模型构建神经网络参数,LeCun点赞

目前,p-diff的代码已经开源,感兴趣的话可以到GitHub中查看。

论文地址:https://arxiv.org/abs/2402.13144

GitHub:https://github.com/NUS-HPC-AI-Lab/Neural-Network-Diffusion

相关专题

更多
idea快捷键大全
idea快捷键大全

本专题为大家提供idea快捷键相关的文章,帮助大家解决问题。

162

2023.08.03

idea如何集成Tomcat
idea如何集成Tomcat

idea集成Tomcat的步骤:1、添加Tomcat服务器配置;2、配置项目部署;3、运行Tomcat服务器;4、访问项目;5、注意事项;6、关闭Tomcat服务器。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

164

2024.02.23

idea怎么配置maven
idea怎么配置maven

idea配置maven的步骤:1、打开intellij idea,并确保已安装maven integration插件,可以在"file"菜单中选择"settings",然后在"plugins"选项卡中搜索并安装maven integration插件等等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

116

2024.02.23

eclipse和idea有什么区别
eclipse和idea有什么区别

eclipse和idea的区别:1、平台支持;2、内存占用;3、插件系统;4、智能代码提示;5、界面设计;6、调试功能;7、学习曲线。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

134

2024.02.23

webstorm和idea有什么区别
webstorm和idea有什么区别

webstorm专为web开发量身定制,提供针对web开发语言的强大功能,而intellij idea是支持多种语言的多功能ide。它们的差异主要在于语言支持、web开发特性、代码导航、调试和测试功能、附加特性。最终选择取决于语言偏好和项目需求。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

320

2024.04.09

idea配置运行go语言环境
idea配置运行go语言环境

本专题整合了idea配置go开发环境相关教程,阅读专题下的文章了解更多详细内容。

96

2025.09.05

idea保存方式
idea保存方式

IDEA 的保存方式:直接保存:Ctrl + S (Windows/Linux) / Command + S (Mac)另存为:Ctrl + Shift + S (Windows/Linux) / Command + Shift + S (Mac)保存所有:Ctrl + Alt + S (Windows/Linux) / Command + Option + S (Mac)自动保存:在 IDE 设置中启用自动保存功能,每隔一段时间会自动

64

2025.10.15

idea回到初始界面
idea回到初始界面

可以通过四种方法返回 IntelliJ IDEA 的初始界面:使用快捷键 (Windows/Linux:Ctrl + Shift + F10;macOS:Cmd + Shift + F10);使用菜单栏(文件 > 关闭所有 > 退出);使用工具栏上的关闭按钮;或在命令行中运行命令(idea --new-instance)。所有方法都会在关闭未保存的更改后重载初始界面。

93

2025.10.15

php源码安装教程大全
php源码安装教程大全

本专题整合了php源码安装教程,阅读专题下面的文章了解更多详细内容。

7

2025.12.31

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号