1月13日最新消息,据多方报道,苹果将携手谷歌,为今年下半年即将上线的新一代ai功能(包括全面升级的siri)提供底层人工智能支撑。
谷歌将依托其Gemini系列大模型及先进云基础设施,助力苹果构建下一代基础AI模型。
苹果在官方声明中指出:“经过全面而审慎的技术评估,我们确认谷歌的AI能力为苹果自研基础模型提供了目前最坚实、最具扩展性的技术底座。我们对由此催生的用户体验革新充满期待。”

据知情人士透露,苹果计划每年向谷歌支付约10亿美元,用于获得深度定制版Gemini模型的独家使用权,主力版本为参数规模达1.2万亿的Gemini 2.5 Pro。
该定制模型将深度赋能Siri的核心能力升级,涵盖智能信息提炼、自主任务编排、多步骤跨应用指令解析等关键场景。相较当前依赖的1500亿参数云端模型,新架构在推理精度、长程上下文建模能力等方面实现跨越式提升,并原生支持图像、语音、文本等多模态输入,以及高达128K token的超长上下文窗口处理。
焕然一新的Siri预计将于2026年春季随iOS 26.4系统正式推送;后续更将在2026年6月WWDC开发者大会上亮相的iOS 27、macOS 27等全新操作系统中完成深度集成与功能拓展。

此前,苹果曾对谷歌Gemini、OpenAI的ChatGPT以及Anthropic的Claude三大主流大模型展开并行测试。最终选定Gemini,主要基于三方面考量:整体合作成本更具优势、双方拥有多年稳固的生态协作历史,以及Gemini 2.5 Pro在当前全球主流大模型基准评测中综合表现位居前列。
Gemini采用先进的混合专家(MoE)架构——尽管总参数量突破万亿级,但每次实际调用仅动态激活其中一部分参数,在保障顶尖性能的同时显著优化算力消耗与能效比,完美适配iPhone、Mac等不同算力层级的终端设备。

值得注意的是,谷歌为苹果定制开发的AI模型将全部部署于苹果自建的私有云服务器集群中,谷歌无权访问、存储或传输任何苹果用户数据,从根源上杜绝隐私泄露风险。
此外,苹果当前采用“双轨协同”AI架构:谷歌Gemini专注承担高复杂度云端任务(例如实时网页内容摘要、跨App多端任务协同调度),而苹果自研轻量化模型则持续负责终端侧敏感数据处理(如健康记录分析、本地文档交互等),形成“云智驱动+端侧守护”的分层协作范式,在大幅提升Siri智能化水平的同时,牢牢掌握用户核心数据主权。











