liquid ai 正式发布全新推理模型 lfm2.5-1.2b-thinking,该模型仅需约 900 mb 手机内存,即可实现同尺寸模型中首屈一指的推理速度与最优的推理精度。
据悉,LFM2.5-1.2B-Thinking 是 LFM2.5 系列的最新迭代版本,参数量为 12 亿,专为复杂推理任务深度优化。其核心特性在于“先思考、后作答”——在输出最终答案前,主动构建结构化思考路径,从而更系统、更可靠地完成问题求解。该能力充分融合了 LFM 架构固有的高速推理优势,进一步提升答案质量与逻辑严谨性。
相较于前代模型 LFM2.5-1.2B-Instruct,LFM2.5-1.2B-Thinking 在三项关键能力上实现显著跃升:数学推理(MATH-500 基准从 63 分提升至 88 分)、指令理解与执行(Multi-IF 基准从 61 分提升至 69 分)、以及工具调用能力(BFCLv3 基准从 49 分提升至 57 分)。

官方指出,尽管参数规模相较 Qwen3-1.7B 缩减近 40%,LFM2.5-1.2B-Thinking 在主流推理评测中不仅全面比肩,更在多项指标上实现反超。尤为突出的是,它兼顾卓越输出质量与极高的测试时计算效率:相比启用“思考模式”的 Qwen3-1.7B,本模型在达成更高综合性能的同时,所需生成的输出 token 数量更少。
在实际推理阶段,LFM2.5-1.2B-Thinking 不仅大幅领先于 Qwen3-1.7B,甚至在速度与内存占用方面也优于 Granite-4.0-H-1B 等混合架构模型。

此外,该模型在高自主性、强逻辑依赖型任务(如工具协同、复杂数学推演、代码生成)及长上下文推理场景中均展现出强劲实力与稳定表现。










