
根据谷歌官方发布的消息,NeurIPS 2025 大会收录了一项由该公司研发的重要研究成果——一种名为 Nested Learning(嵌套学习)的全新机器学习方法,专注于应对长期困扰AI领域的“灾难性遗忘”难题。
该研究突破了传统机器学习中模型结构与优化算法相互独立的设计范式,转而将整个模型视为一个由多层嵌套优化问题构成的整体。通过引入多时间尺度参数更新机制和连续记忆系统,新旧知识得以在训练过程中协同保存,避免信息覆盖。
嵌套学习的核心理念在于,允许模型各组成部分以不同的节奏进行更新,揭示出如 Transformer 这类主流架构本质上可被理解为多个具有不同更新频率的线性层组合。这种统一架构下的多频更新机制,在结构上与人脑中的神经波动及突触可塑性高度相似。研究人员由此提出“更新频率”的概念——即每个模块参数调整的速率,并据此构建出有序的层级化学习结构。
基于这一理论框架,团队设计了名为 Hope 的验证性架构,具备自我修改能力和可无限扩展的学习层级。

实证结果显示,Hope 在语言建模、常识推理以及长序列上下文处理等任务中,表现超越当前领先的 Transformer 和 Mamba2 模型。这一新范式不仅为实现持续学习的人工智能提供了可行路径,也为未来开发具备自进化能力的AI系统奠定了基础,有望进一步拉近大模型与人类终身学习能力之间的距离。











