liquid ai 正式推出了其全新实验性模型 lfm2-2.6b-exp。这款仅含 2.6b(26 亿)参数的轻量级开源模型,在多项核心基准测试中展现出卓越性能,尤其在指令遵循能力方面,显著优于参数规模达数百亿级别的 deepseek r1-0528。
LFM2-2.6B-Exp 基于 Liquid AI 第二代 Liquid Foundation Models(LFM2)系列中的 2.6B 基础模型,采用纯强化学习(RL)方式进行后训练优化,全程无需监督微调预热,也未依赖任何大型教师模型进行知识蒸馏。该模型延续了 LFM2 的混合架构设计优势,融合短程门控卷积与分组查询注意力机制(GQA),原生支持长达 32K 的上下文窗口,专为边缘计算场景(如智能手机、笔记本电脑及物联网终端设备)打造,兼顾高性能与低资源消耗,轻松实现本地化部署。
Liquid AI 明确指出,该实验版本重点针对指令理解与执行、知识型问答以及数学逻辑推理等任务进行了定向优化,可广泛应用于智能代理工作流、RAG 检索增强生成、结构化数据抽取、创意内容生成及多轮深度对话等多种实际场景。

最新公开基准测评结果如下:
- IFBench(指令跟随能力评测):得分大幅领先同参数量级竞品,甚至超越参数规模高达 263 倍的 DeepSeek R1-0528;
- GPQA(研究生水平知识问答):准确率约为 42%,远超常规 3B 级别模型;
- IFEval(指令严格遵从度评估):达标率突破 88%,力压多数参数超 10B 的主流模型;
- GSM8K(小学数学应用题推理):准确率稳定在 82% 以上,表现优于 Llama3.2-3B 和 Gemma-3 全系列模型。
值得一提的是,该模型在标准 CPU 平台上的预填充(prefill)与自回归解码(decoding)速度达到同类产品的约 2 倍,内存占用极小,并全面支持 bfloat16 量化部署,真正达成“手机端运行博士级推理任务”的目标。
源码获取地址:点击下载










