阿里巴巴通义千问(qwen)团队正式推出全新开源大模型 qwenlong-l1.5,该模型聚焦于超长文本理解、复杂推理与高效记忆管理能力。其底层架构基于高性能的 qwen3-30b-a3b-thinking 模型,并针对性地升级了记忆机制,从而在物理上下文窗口(256k tokens)之外,仍能有效应对更长序列任务。

QwenLong-L1.5 三大关键技术突破:
高难度合成数据构建管线:设计了一套新型数据生成流程,重点构造需多步溯源、跨段落关联及全局分布式证据整合的复杂推理任务,显著超越传统“大海捞针”类简单定位任务的建模深度。
鲁棒长上下文强化训练策略:创新引入任务均衡采样(Task-balanced sampling)与自适应熵调节优化(AEPO)等强化学习技术,大幅提升超长上下文训练过程的稳定性与收敛效率。
分阶段融合式记忆管理框架:通过多轮次记忆增强的强化学习机制,在单次推理维持 256K 上下文窗口的基础上,动态更新并调用外部记忆模块,实现对远超窗口长度任务的持续支持。在主流长上下文权威评测中,QwenLong-L1.5 相较基线模型 Qwen3-30B-A3B-Thinking 平均提升达 9.9 分,综合表现已比肩 GPT-5、Gemini-2.5-Pro 等业界顶尖闭源模型。
开源地址:https://www.php.cn/link/75b106cadadfe7ffb2ae427acec5041d
源码下载:点击获取










