大型语言模型(llm)在数学竞赛基准测试中表现出色,得分动辄80%甚至90%以上,但在实际应用中却往往表现不佳。对此,上海人工智能实验室司南opencompass团队开发了新的复杂数学评测集livemathbench,并引入了新的性能指标g-pass@16,以更全面地评估模型的性能潜力和稳定性。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

该团队通过模拟真实用户使用场景,对多个LLM进行了多次测试,结果显示:大多数模型的性能平均下降超过50%,即使是最强的推理模型o1-mini也下降了36%。有些模型的性能下降甚至高达90%。

G-Pass@k:兼顾性能潜力与稳定性的新指标
研究团队对传统指标如Pass@k、Best-of-N和Majority Voting进行了改进,这些指标主要关注模型的潜在能力,而忽略了鲁棒性。在实际应用中,模型常采用采样解码,这会引入随机性,影响模型的性能。用户期望模型在真实场景中表现稳定可靠。
因此,团队提出了G-Pass@k指标,它通过引入阈值,评估模型在多次生成中至少给出一定数量正确答案的概率。 当阈值较低时,G-Pass@k反映模型的性能潜力;当阈值较高时,它反映模型的稳定性。 Pass@k实际上是G-Pass@k在阈值为1时的特例。


团队还定义了mG-Pass@k,它是G-Pass@k曲线的面积,用于整体评估模型性能,尤其关注0.5到1.0之间的阈值范围。

LiveMathBench:一个更真实的评测集
为了进行更客观的评估,团队构建了LiveMathBench,该数据集包含来自中国数学奥林匹克、中国高考模拟题、美国数学竞赛和普特南数学竞赛的题目,尽可能减少数据污染。 LiveMathBench (202412版本) 包含238道题目,提供中英文双版本。 团队计划持续更新该数据集。 实验还涵盖了MATH500-L5和AIME2024-45两个公开基准数据集。
实验结果与分析
实验中,每个题目进行了48次(16次采样*3次重复)生成,并报告G-Pass@16分数。结果显示:



主要观察结果:
稳定性差: 闭源和开源模型在复杂推理任务中的稳定性都非常差,G-Pass@16(1.0) 的分数普遍很低,性能下降幅度巨大。
规模并非万能: 增大模型规模对推理能力的提升有限,甚至可能导致性能下降。
潜力与实际表现差距大: 模型的潜在能力(例如Greedy Accuracy)与实际稳定表现(G-Pass@16(1.0))之间存在巨大差距。
结论
这项研究揭示了当前LLM在复杂数学推理方面的局限性,尤其是在稳定性和鲁棒性方面。 G-Pass@16指标和LiveMathBench数据集为更全面地评估LLM的数学推理能力提供了新的工具,也为未来的研究指明了方向。 研究人员呼吁学术界和工业界关注LLM推理能力的鲁棒性问题。
以上就是GPT-4o数学能力跑分直掉50%,上海AI Lab开始给大模型重新出题了的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号