苹果正筹备在明年春季推出全新版本的Siri,并且将首次深度整合谷歌的Gemini大模型,以此来达成更出色的智能化水平与多模态交互效果。据悉,苹果和谷歌已经签署了一份年度合作协议,涉及金额约10亿美元,从而获得了定制版Gemini 2.5 Pro模型的使用权限。
这个版本的模型配备了多达1.2万亿的参数,和目前Siri使用的1500亿参数云端模型相比,在参数规模上实现了数量级的跨越。升级后的Siri不仅能应对更复杂的语义理解、任务规划以及多步指令的执行,还可以支持128K Token的长文本,同时兼容图像、语音等多种模态的输入。
此次升级后的Siri预计会在2026年春季随iOS 26.4一同推送,之后还将在WWDC 2026上进一步展示其与iOS 27、macOS 27的深度整合功能。
有消息称,苹果此前曾对谷歌Gemini、OpenAI的ChatGPT以及Claude这三款主流大模型进行过同步测试,而最终决定选用Gemini,主要是基于几方面因素:一是更为有利的财务合作条件,比如Claude的年度合作成本就超过了15亿美元;二是苹果与谷歌之间已有的技术合作基础;此外,Gemini在大语言模型(LLM)性能排行榜上的领先表现也是重要原因之一。
Gemini运用“混合专家架构”,尽管整体参数体量很大,但每次进行推理时只会激活部分参数,这样既保证了高性能的输出效果,又能切实控制计算与能耗方面的成本。
在隐私与安全层面,苹果清晰指出,Gemini会部署于苹果自家的私有云基础设施之中,谷歌没有权限获取用户的任何个人数据。与此同时,苹果自主研发的模型依旧会承担设备端的隐私计算工作,像健康数据处理、本地文件交互这类任务,和Gemini共同构建起“云端 + 本地”的分层协作体系。
这一战略调整标志着苹果在AI语音助手领域进入全新发展阶段。未来的Siri版本不仅会拥有更出色的理解能力和任务执行效率,还将成为苹果AI生态体系的核心入口,助力实现iPhone、iPad和Mac等多终端之间更智能的协同体验。
编辑点评:
苹果这次与谷歌Gemini达成合作,既是出于务实考量的选择,也释放出战略转向的信号。在生成式AI的浪潮席卷之下,苹果不再坚持孤立的自主研发路径,转而选择与行业顶尖的模型展开协作,旨在为Siri赋予真正具备“智能内核”的灵魂。明年春季推出的新版Siri,很可能会成为苹果在AI时代发展进程中的关键转折点。