首页 > 新闻 > IT新闻 > 正文

Thinking Machines Lab 发文,揭示 LLM 推理过程不确定性的真相

心靈之曲
发布: 2025-09-11 13:10:01
原创
780人浏览过

thinking machines lab 发文,揭示 llm 推理过程不确定性的真相

由前 OpenAI 首席技术官 Mira Murati 创立的 Thinking Machines Lab 近日发布了其首篇技术博客:《在 LLM 推理中战胜不确定性》("Defeating Nondeterminism in LLM Inference")

Thinking Machines Lab 发文,揭示 LLM 推理过程不确定性的真相

尽管将大语言模型的温度设置为 0,并使用完全相同的输入、模型和硬件,输出结果仍可能出现差异。这篇博客深入探讨了这一现象背后的原因,并提出了解决方案——如何实现 100% 可重复的大模型推理输出。

文章指出,造成这种不确定性的因素主要有两个:

1. 浮点数加法不具备结合律特性(floating-point non-associativity)

即 (a + b) + c 与 a + (b + c) 在浮点运算中可能产生不同结果。由于并行计算时求和顺序不一致,会引入微小数值偏差。不过,作者认为这并非问题的主要根源。

2. 并行计算策略的动态变化(Dynamic Parallelization Strategies)

通义万相
通义万相

通义万相,一个不断进化的AI艺术创作大模型

通义万相 596
查看详情 通义万相

这是导致输出不一致的核心原因。当 batch size、序列长度或 KV-cache 的状态发生变化时,GPU 内核可能会选择不同的并行执行路径,进而改变计算顺序,最终影响输出结果。

为解决此问题,作者提出必须确保所有关键计算内核(kernel)具备 batch-invariant 特性——无论输入批次大小或序列如何分割,计算过程和结果都应保持完全一致。

针对三大核心组件,团队提出了相应的改进方法:

  • RMSNorm:重构归一化计算流程,保证跨设备和批处理的一致性
  • 矩阵乘法(Matrix Multiplication):采用确定性算法路径,避免因分块策略不同带来的误差
  • 注意力机制(Attention):设计统一的并行化模式,消除 softmax 与 KV-cache 操作中的非确定性

Thinking Machines Lab 发文,揭示 LLM 推理过程不确定性的真相

实验部分,研究团队选用 Qwen3-235B-A22B-Instruct-2507 模型进行测试。在应用上述优化后,连续运行 1000 次相同请求,模型每次输出均完全一致,实现了真正意义上的确定性推理。

以上就是Thinking Machines Lab 发文,揭示 LLM 推理过程不确定性的真相的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号