openai 与 cerebras 近日正式达成一项为期多年的战略合作协议,约定自 2026 年起分批次部署总计达 750 兆瓦的 cerebras 晶圆级计算系统,以支撑 openai 面向全球用户的 ai 服务。该项目有望成为全球迄今规模最大、带宽最高的 ai 实时推理基础设施。据内部消息人士透露,该合作总金额逾 100 亿美元。
据双方联合声明,本次协作的核心聚焦于显著增强 OpenAI 大模型的在线推理性能,尤其针对当前仍存在明显响应延迟的高复杂度任务,实现毫秒级响应突破。

OpenAI 在其官方技术博客中强调,这批新型系统将大幅压缩长链推理与多步决策任务的端到端延迟,从而推动人机交互体验迈向更高自然度与流畅性。Cerebras 联合创始人兼首席执行官 Andrew Feldman 指出:“正如宽带重塑了互联网的使用范式,实时推理能力的普及,也将彻底重构人工智能的应用边界。”
Cerebras 成立于 2015 年,深耕芯片架构与系统级 AI 加速已逾十年;而自 2022 年 ChatGPT 爆发以来,其全栈自研的晶圆级引擎(WSE)技术迅速引发业界广泛关注。公司宣称,相较主流基于英伟达 GPU 构建的推理方案,其原生 AI 芯片在吞吐与能效比方面具备结构性优势。
事实上,双方的技术对话可追溯至 2017 年,此次大规模落地标志着大语言模型能力与专用硬件架构之间真正进入深度协同阶段。实测数据显示,Cerebras 系统在运行典型大语言模型时,推理延迟较传统 GPU 集群最高降低达 15 倍。OpenAI 工程副总裁 Sachin Katti 表示:“Cerebras 提供的超低延迟专用推理平台,是实现真正沉浸式、拟真化 AI 对话的关键基石。”Cerebras 方亦指出,依托此次合作,其晶圆级技术将首次规模化服务于数亿乃至数十亿终端用户。










