据外媒macworld和mashable披露,苹果公司正对智能语音助手Siri进行自2011年推出以来最大规模的底层架构革新。此次升级将彻底改变Siri仅能执行单步指令的局限,通过多任务处理能力实现跨应用协同操作。新版本预计作为iOS 27、iPadOS 27和macOS 27的核心功能,于今年秋季向全球用户推送。
长期困扰用户的"单线程"缺陷将得到根本性解决。测试版本显示,新版Siri已具备解析复杂语境的能力,可同时处理包含多个意图的语音指令。例如用户发出"查询明日天气,若下雨则创建下午5点的理发预约并通知妻子晚归"的复合指令时,系统将自动分解为天气查询、日历编辑和短信发送三个步骤依次执行。这项突破被业界视为苹果追赶ChatGPT等现代AI助手的关键举措。
为实现技术跨越,苹果采用"双轨并行"策略:一方面与谷歌达成多年期合作协议,深度整合Gemini大语言模型处理云端复杂任务,包括自然语言理解、任务规划及指令拆解;另一方面持续推进自研的Apple Foundation Models项目,专注处理设备端个人数据。这种混合架构既解决了移动端算力限制,又通过端云协同确保用户隐私安全。
生态开放成为此次升级的另一重点。iOS 27系统设置中将新增"扩展"选项,允许第三方AI应用深度集成Siri功能。除现有ChatGPT接入外,未来将支持谷歌Gemini、Anthropic Claude等主流模型。更引人注目的是,苹果正在开发独立Siri应用,采用气泡对话界面设计,支持历史记录查询和第三方插件管理。用户可通过App Store安装不同AI服务,苹果则通过订阅抽成开辟新盈利渠道。
知情人士透露,苹果计划在6月全球开发者大会上正式发布新版Siri及"苹果智能"技术细节,首个开发者测试版将同步上线。这次升级不仅重塑了语音交互方式,更通过开放生态构建起覆盖多模型、多设备的AI服务网络,标志着苹果在人工智能领域展开全面布局。













