首页 > 新闻 > IT新闻 > 正文

NeurIPS 2025 最佳论文奖公布,中国研究者贡献突出

DDD
发布: 2025-11-28 16:40:02
原创
292人浏览过

人工智能领域顶级会议neurips 2025最佳论文奖近日揭晓,共评选出四篇获奖论文,其中多篇由华人学者领衔完成。本次获奖研究聚焦语言模型多样性、大模型注意力机制优化、深度强化学习突破以及扩散模型的理论解析。

NeurIPS 2025 最佳论文奖公布,中国研究者贡献突出

获奖工作包括 Liwei Jiang 等人提出的《Artificial Hivemind》,揭示了大模型生成过程中的“人工蜂群效应”;来自阿里巴巴通义千问团队的 Zihan Qiu 等人发表的《Gated Attention for Large Language Models》,提出了一种有效缓解“注意力沉降”问题的新架构;普林斯顿大学 Kevin Wang 等人通过构建千层网络实现自监督强化学习的重大进展;以及巴黎文理研究大学 Tony Bonnaire 等人对扩散模型泛化行为的深入理论分析。

值得一提的是,何恺明、孙剑等人于2015年发表的《Faster R-CNN》荣获本届“时间检验奖”,彰显其在计算机视觉领域的深远影响。


以下是各篇获奖论文的简要介绍:

最佳论文

  1. Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond)

    • 作者:Liwei Jiang, Yuanjun Chai等
    • 机构:艾伦人工智能研究所、斯坦福大学
    • 内容:构建大规模对话数据集Infinity-Chat,系统性揭示大语言模型在开放式生成任务中存在“群体思维”现象,表现为模型内部重复输出与跨模型同质化倾向,为评估和提升生成多样性提供了新基准。
    • 链接https://www.php.cn/link/7dcaf28989f03f0a85f05eb8d4a96b1d
  2. Gated Attention for Large Language Models: Non-Linearity, Sparsity, and Attention-Sink-Free

    • 作者:Zihan Qiu, Zekun Wang等
    • 机构:阿里通义千问团队、爱丁堡大学等
    • 内容:提出并验证门控注意力机制在大语言模型中的关键作用,证明其能有效增强非线性表达能力、引入稀疏性,并避免“注意力沉降”问题,相关技术已集成至Qwen3-Next模型中。
    • 链接https://www.php.cn/link/4b9ba87e0fa64737feea24fe89169f3e
  3. 1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities

    Elser AI Comics
    Elser AI Comics

    一个免费且强大的AI漫画生成工具,助力你三步创作自己的一出好戏

    Elser AI Comics 522
    查看详情 Elser AI Comics
    • 作者:Kevin Wang, Ishaan Javali等
    • 机构:普林斯顿大学、华沙理工大学
    • 内容:首次将神经网络深度扩展至1024层用于自监督强化学习,实验证明该设计显著提升了策略学习能力和目标达成性能,打破了传统浅层结构的局限。
    • 链接https://www.php.cn/link/33807476351b4d1295b34aa9dce30273
  4. Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training

    • 作者:Tony Bonnaire, Raphaël Urfink等
    • 机构:巴黎文理研究大学、博科尼大学
    • 内容:从动力学角度分析扩散模型训练过程,发现隐式动态正则化机制是其即便在高度过参数化条件下仍能保持良好泛化性的关键原因,为生成模型的理解提供理论支撑。
    • 链接https://www.php.cn/link/7c7b9ebf8078f2004a859430d599a622

最佳论文荣誉提名(亚军)

  1. Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model?

    • 作者:Yang Yue, Zhiqi Chen等
    • 机构:清华大学、上海交通大学
    • 内容:质疑当前强化学习方法是否真正增强了大模型的推理能力,指出带可验证奖励的RLVR框架未必带来实质性提升,呼吁更严谨的评估体系与新型训练范式。
    • 链接https://www.php.cn/link/22faad819c7d2f9739083b503674694e
  2. Optimal Mistake Bounds for Transductive Online Learning

    • 作者:Zachary Chase, Steve Hanneke等
    • 机构:肯特州立大学、普渡大学等
    • 内容:解决了传导式在线学习领域长达三十年的核心难题,精确推导出最优错误上界,并证明其相较于标准在线学习具有二次方级别的复杂度差异。
    • 链接https://www.php.cn/link/b0f47015b6ace4492dd96d63e515e779
  3. Superposition Yields Robust Neural Scaling

    • 作者:Yizhou Liu, Ziming Liu等
    • 机构:麻省理工学院
    • 内容:提出表征叠加机制是驱动神经缩放定律的根本因素,为解释模型规模增长如何带来性能持续提升提供了新的理论视角。
    • 链接https://www.php.cn/link/a6cd8b85105e31ee5647b65a973f3205

此外,任少卿、何恺明等人于2015年发表的经典论文《Faster R-CNN》被授予“时间检验奖”,该成果奠定了现代目标检测系统的基石架构,至今仍广泛应用于工业界与学术界。

源码地址:点击下载

以上就是NeurIPS 2025 最佳论文奖公布,中国研究者贡献突出的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号