据彭博社最新消息,苹果公司正秘密推进三款搭载人工智能技术的可穿戴设备研发计划,涵盖智能眼镜、穿戴式胸针及升级版AirPods。这些设备均设计为iPhone生态的延伸,通过深度整合升级版Siri实现交互功能,并内置摄像头模块以支持环境感知能力。
在智能眼镜领域,苹果将直接对标meta与雷朋合作的智能眼镜产品。工程团队已向高管展示原型机,计划2026年底启动量产,2027年正式上市。该设备采用双摄像头系统:主摄像头支持高清拍摄,辅助摄像头配备激光雷达功能,可实现场景解析、距离测量等空间感知能力。区别于竞品,苹果选择放弃镜片显示技术,转而通过语音交互实现导航、日程管理、实时翻译等功能。用户可通过注视物体触发提问,系统自动识别文字信息并同步至日历应用。为突出高端定位,苹果自主研发镜框结构,采用亚克力等轻质材料打造多种配色方案,并将电池与核心组件集成于镜腿,目标打造全天候佩戴的AI助手。
处于概念验证阶段的AI胸针项目引发内部热议。这款定位为iPhone配件的设备配备持续运行的低分辨率摄像头,可实时采集环境数据但无法成像。内置麦克风与专用芯片构成基础交互系统,复杂计算任务仍需依赖iPhone处理。设计团队提出多种佩戴方案,既可通过夹子固定于衣物,也可改造为项链吊坠。尽管部分员工将其视为"手机的延伸感官",但项目存在较高取消风险,若顺利推进预计2027年面世。
在音频设备领域,带摄像头的AirPods研发进度领先于胸针项目,有望年内亮相。这款产品延续苹果"无感化"设计理念,通过微型摄像头采集环境信息,与升级版Siri形成协同。工程团队重点优化语音交互延迟,确保用户在行走、运动等场景下仍能获得流畅体验。测试数据显示,设备在嘈杂环境中仍能准确识别指令,这得益于新一代声学算法与骨传导传感器的配合。
支撑这些设备的核心技术,是正在重构中的Siri智能系统。尽管Apple Intelligence特性未在iOS 26.4测试版中现身,但开发团队正基于谷歌AI模型构建新一代对话引擎。该系统将突破传统语音助手的功能边界,具备上下文理解、多模态交互等能力。知情人士透露,新Siri可同时处理视觉、语音、触觉等多通道信息,例如通过分析用户视线焦点与语音指令,主动提供相关信息服务。
苹果的硬件创新版图正在持续扩张。供应链消息显示,搭载AR显示技术的智能眼镜已完成技术预研,但量产仍需3-5年时间。家庭场景方面,带机械臂的智能显示屏项目进入工程验证阶段,预计2027年推出升级版本。与此同时,新一代HomePod与紧凑型安防传感器也在同步开发,这些设备将通过HomeKit平台构建完整的智能家居生态。工程团队特别强调设备间的协同效应,例如智能眼镜可自动调用家庭传感器的数据,为用户提供更精准的环境建议。













