在苹果近期召开的季度财报电话会议上,首席执行官蒂姆·库克特别提及了一项名为“视觉智能”的Apple Intelligence核心功能。据他介绍,这一功能已成为用户群体中最受欢迎的选项之一,其通过优化信息处理方式,显著提升了用户在学习、搜索及与数字内容交互时的效率。
目前,视觉智能主要集成于iPhone 16的相机控制按钮中。用户只需长按该按钮,即可快速调用AI分析周围环境,完成诸如翻译路标文字、获取餐厅详细信息,或将传单上的活动信息直接添加至日历等操作。这种“一键触发”的设计,让日常场景中的信息获取变得更为直观。
随着iOS 26系统的更新,视觉智能的应用场景进一步突破硬件限制。新系统通过引入截图查看器功能,将AI分析能力扩展至整个操作系统层面。当用户截取屏幕内容后,系统会自动识别图片中的文本、链接等信息,并实现即时转化——例如将截图中的网址自动变为可点击的链接,从而简化跨应用操作流程。这一升级被视为苹果在“无界面交互”领域的重要尝试。
行业分析师Mark Gurman透露,苹果正计划将视觉智能技术推广至更多硬件产品线。预计今年晚些时候发布的AirPods Pro 3高端型号,以及苹果首款智能眼镜产品,均将搭载该功能。这两款设备预计会内置摄像头模块,通过实时分析用户所处环境,提供动态信息反馈。例如,智能眼镜可能根据用户视线方向,自动显示周边地标信息或导航提示,实现“所见即所得”的交互体验。
据知情人士称,苹果对智能眼镜的定位是“纯粹的Apple Intelligence设备”,其核心目标是通过硬件与AI的深度整合,让信息流自然跟随用户视线流转,而非依赖传统屏幕交互。这一战略若成功实施,或将重新定义可穿戴设备的使用逻辑。













