新闻动态

苹果新版Siri传将采用Google Gemini模型,每年付费约10亿美元

发布日期:2025-11-21 12:14    点击次数:132

根据彭博社的报道,苹果(Apple)正在开发一款更聪明、更强大的Siri版本,它将采用由Google开发的Gemini人工智能模型 。据传,苹果每年将支付Google约10亿美元,来使用这个拥有1.2兆参数的AI大型语言模型(LLM) 。

参数数量是衡量模型理解和回应能力的重要指标 。通常来说,参数越多,模型的功能就越强大,不过训练方式和架构也会影响实际效果 。据了解,Google Gemini模型的参数数量远超过苹果目前使用的AI模型 。

目前,苹果基于云计算的Apple Intelligence版本使用了1,500亿参数 ,但苹果自家其他AI模型的具体参数量则尚未公开 。

苹果计划将Gemini用于摘要、复杂任务的规划与执行等多步骤功能 。不过,Siri的部分功能仍会采用苹果自家开发的AI模型 。值得注意的是,Google为苹果开发的Gemini将在苹果专门的私有云服务器上执行,Google将无法访问任何苹果用户的数据 。

Gemini采用了“专家混合架构(Mixture of Experts, MoE)” 。虽然总参数超过一兆,但每次查询时只会启动部分参数 。这种设计的好处是既能保有强大的运算能力,同时也能降低运算成本 。

苹果先前曾经考虑采用自家的大型语言模型 ,也测试过OpenAI和Anthropic的解决方案 ,但最终因为Anthropic收费过高而选择了Google Gemini 。事实上,Google与苹果在搜索引擎领域早有长期合作 ,每年支付苹果约200亿美元 ,让Google成为苹果设备上的默认搜索引擎 。

尽管苹果现在依赖Google的AI技术 ,但他们并没有放弃自主研发 ,并计划在自家大型语言模型成熟后就转向使用自家方案 。据传,苹果正在开发一款拥有1兆参数的云计算模型 ,最快可能在2026年投入使用 。不过,苹果在开发过程中不太可能主动公开与Google的合作细节 。

原本,Siri计划在iOS 18中更新 ,但因为架构上的问题,已经延后到2026年春季的iOS 26.4版本 。届时,新版Siri将能够应对更复杂的问题 ,并在各应用程序之间完成更繁琐的任务 ,功能会接近Claude和ChatGPT 。不过,苹果目前并没有规划推出单独的聊天机器人应用程序 。



Powered by 开棋牌室挣钱吗知乎 @2013-2022 RSS地图 HTML地图

Copyright Powered by站群系统 2013-2026