minicpm 4.1 是由面壁智能研发的一款混合思考型语言模型。该模型基于 infllm v2 稀疏注意力架构,每个词元仅需与不到 5% 的其他词元进行相关性计算,显著降低长文本处理时的计算和内存开销。在处理长达 128k 的文本时,相比传统模型大幅减少缓存占用。minicpm 4.1 支持智能双频换挡机制,能够根据任务类型自动切换注意力模式,在效率与精度之间实现动态平衡。其在多项评测中位列同规模模型榜首,整体性能达到同类产品领先水平。同时,模型提供 gptq、autoawq 等多种部署格式,便于在各类端侧设备上高效运行。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜
MiniCPM 4.1的核心功能
- 高效稀疏结构:采用 InfLLM v2 架构,每个词元仅需与少于 5% 的词元交互,在 128K 长文本场景下显著降低显存占用与计算负担。
- 智能模式切换:支持双频换挡机制,长文本启用稀疏注意力以提升效率,短文本切换至稠密注意力确保响应质量。
- 强大综合表现:在知识理解、逻辑推理、代码生成、指令执行等多个基准测试中位居同尺寸模型前列,综合能力行业领先。
- 优化端侧运行:在 LiveCodeBench 和 AIME 等测试中,推理速度超过同类开源模型 3 倍以上;128K 场景下仅需 25% 的缓存空间,适配低资源设备。
- 灵活部署支持:支持 GPTQ、AutoAWQ 等主流量化格式,可在手机、平板、边缘设备等多种终端高效部署。
MiniCPM 4.1的技术实现
- 稀疏注意力设计:基于 InfLLM v2 技术,限制每个词元只关注全局中约 5% 的关键上下文,极大降低长序列的计算复杂度与内存消耗。
- 动态注意力切换:引入双频换挡机制,依据输入长度和任务类型智能选择稀疏或稠密注意力模式,兼顾效率与准确性。
- 自研推理引擎:搭载 CPM.cu 高性能推理框架,集成稀疏计算、模型量化与投机采样技术,优化预填充与解码阶段效率。
- 长文本处理策略:通过分块处理与重点区域识别机制,智能化聚焦关键语义段落,有效减少冗余计算,支持 128K 及更长文本输入。
- 训练与数据优化:使用高质量预训练与微调数据集,结合 BitCPM 三元量化等先进压缩技术,实现高保真模型压缩与高效训练。
MiniCPM 4.1的项目链接
- GitHub 仓库:https://www.php.cn/link/437bce6c54114f437f169de31d370f1b
- HuggingFace 模型页面:https://www.php.cn/link/77c13bef784f87619c396282057de79a










