minimax-m1是minimax团队发布的全新开源推理模型,结合了混合专家架构(moe)与闪电注意力机制(lightning attention),总参数规模达到4560亿,每token激活459亿参数。该模型在性能上超越国内主流闭源模型,接近国际顶尖水平,具备极高的性价比。minimax-m1原生支持长达100万token的上下文长度,并提供40k和80k两种推理预算版本,适用于处理长输入和复杂推理任务。基准测试显示,它在多个指标上优于deepseek等开源模型,在软件工程、长上下文理解和工具调用方面表现尤为突出。其高效的计算能力和强大的推理能力为下一代语言模型代理提供了坚实基础。
MiniMax-M1的核心功能
-
长文本处理能力:支持100万token输入和8万token输出,适用于处理长文档及复杂推理任务。
-
高效推理机制:提供40K和80K两个推理预算选项,优化资源使用,降低推理成本。
-
多领域适应性:在数学推理、软件开发、上下文理解以及工具调用等方面表现出色,满足多种应用场景需求。
-
结构化函数调用:能够识别并生成外部函数调用参数,便于与外部系统交互。
MiniMax-M1的技术核心
-
混合专家架构(MoE):采用MoE结构,将模型划分为多个专家模块,根据输入特征动态分配至不同模块,实现高效计算与并行处理。这种设计使得模型在大规模参数下仍保持良好性能,适合处理复杂任务。
-
闪电注意力机制(Lightning Attention):通过优化注意力计算流程,减少冗余运算,显著提升效率。利用稀疏注意力模式,仅关注关键信息,进一步降低计算复杂度,有效支持百万级token上下文处理。
-
强化学习训练策略:采用大规模强化学习进行训练,基于奖励信号优化输出结果。提出CISPO算法,通过对重要性采样权重裁剪而非token更新,提高训练效率和模型表现。混合注意力设计自然增强了RL训练效果,解决MoE架构在扩展强化学习时的挑战。
MiniMax-M1的性能评测
-
代码工程能力:在SWE-bench基准测试中,MiniMax-M1-40k和MiniMax-M1-80k分别获得55.6%和56.0%的得分,略低于DeepSeek-R1-0528的57.6%,但远超其他开源模型。
-
长文本理解能力:凭借百万token上下文窗口,M1系列在长文本理解方面领先所有开源模型,甚至超过OpenAI o3和Claude 4 Opus,全球排名第二,仅次于Gemini 2.5 Pro。
-
工具调用能力:在TAU-bench评测中,MiniMax-M1-40k在开源模型中排名第一,击败Gemini-2.5 Pro。
MiniMax-M1的项目资源
MiniMax-M1的定价策略
-
API推理费用标准:
-
0-32k 输入长度:
-
输入价格:0.8元/百万 token。
-
输出价格:8元/百万 token。
-
32k-128k 输入长度:
-
输入价格:1.2元/百万 token。
-
输出价格:16元/百万 token。
-
128k-1M 输入长度:
-
输入价格:2.4元/百万 token。
-
输出价格:24元/百万 token。
-
APP与网页端服务:在MiniMax APP和Web平台提供不限量免费使用。
MiniMax-M1的应用方向
-
软件开发辅助:可进行代码生成、优化、调试与文档编写,协助开发者快速构建功能模块,提升开发效率。
-
长文本处理:适用于撰写报告、论文、小说等内容创作,同时支持长文本分析与多文档摘要,满足多样需求。
-
数学逻辑推理:可解答复杂数学问题,如竞赛题与建模任务,处理逻辑推理问题并提供清晰思路。
-
工具集成与操作:作为智能助手调用外部工具完成多步骤任务,提供自动化方案,提升工作效率。
以上就是MiniMax-M1— MiniMax最新开源的推理模型的详细内容,更多请关注php中文网其它相关文章!