
据 CNBC 引述知情人士消息,月之暗面于 11 月 6 日推出的 Kimi K2 Thinking 模型,其训练成本约为 460 万美元。该公司宣称,该模型在多项测试中表现优于 GPT-5 和 Sonnet 4.5 Thinking。作为参考,DeepSeek V3 官方公布的训练成本为 560 万美元,而 GPT 系列模型的训练开销据估计高达十亿美元级别。
Kimi 在传统 MoE 架构基础上(涵盖 DeepSeek 等开源模型所采用的结构)进行了多项深度优化,实现了被称为“超稀疏MoE”的创新设计,并融合了大量开源生态的技术成果。K2 Thinking 拥有高达一万亿参数,位列全球大模型前列,但在每次推理过程中仅激活 3.2%(即 3200 亿)参数,在运行效率方面跃居首位。
目前排名第二的是 DeepSeek,激活比例为 5.5%;AI 技术专家分析指出,GPT-4 与 GPT-5 的激活比例大约在 10% 左右。K2 的 MoE 结构包含多达 384 个专家网络,但在处理复杂 Agentic 任务时,仅调用其中 8 个专家,实现高达 48 倍的稀疏度。这种动态按需调用机制显著提升了模型应对高复杂度任务的深度与能效。










