在近日举办的The Android Show上,谷歌首次向外界揭开了Project Aura的神秘面纱,并详细阐述了Android XR系统的关键特性。这款被谷歌誉为“当前最接近Android XR理想形态的硬件样本”的产品,不仅标志着Gemini AI首次具备了“观察现实世界”的能力,更预示着中国企业将在下一代计算平台的标准制定中扮演重要角色。
谷歌在大会上明确指出,Android XR的核心愿景是打造一个开放且统一的扩展现实平台,让AI突破平面屏幕的限制,深入真实世界的每一个角落。为实现这一目标,谷歌选择了与XREAL展开深度合作。谷歌将Aura形容为“Gemini AI的第一双原生空间之眼”,并强调它将成为未来Android XR生态开发者的重要参考标准。这一评价背后,是XREAL在光学、芯片、空间算法及先进制造领域的全面领先。
随着AI技术的迅猛发展,大语言模型、多模态模型以及世界模型相继涌现,使AI具备了“听、说、看、画”及理解物理空间的能力。然而,AI的形态却始终未能摆脱屏幕的束缚。Project Aura的出现,有望彻底改变这一现状。谷歌在大会上展示了Aura的最新系统能力:Gemini首次能够在真实世界中构建出“连续、可交互、可理解”的空间语义模型。通过将XREAL的光学、芯片、空间算法与谷歌的Android XR和Gemini AI深度融合,Aura实现了AI从“看见”到“理解”再到“交互”的完整闭环。
XREAL创始人兼CEO徐驰在大会上表示:“Agent不应仅限于软件形态,更应成为‘硬件化的Agent’,以最大化释放AI的潜力。眼镜作为与人最为贴近的设备,是承载下一代智能终端的理想载体。它所带来的增量数据,是AI迈向通用人工智能(AGI)的必经之路。”
Project Aura的三大核心能力,为AI终端基础设施的建设奠定了坚实基础。首先,其70°光学透视视场角为Gemini打开了“现实世界的视野”。通过X—Prism光学系统实现的70° FOV,是消费级AR领域的最大实用视场,使数字内容能够自然叠加于现实环境之中。这使得Gemini能够实时识别用户所见场景、物体及操作步骤,实现真正的空间理解。例如,在烹饪时,食谱可实时跟随用户动作;在飞机上,用户可拉起一块私密虚拟屏幕;在家里,客厅可瞬间转变为沉浸式巨幕影院。
其次,Aura采用了XREAL自研的X1S空间计算芯片,这款专为AR设计的芯片构建了低延迟、高精度的空间智能链路,成为Project Aura“空间级AI”的底层支撑。Aura还将多模态Gemini与眼镜的摄像头、麦克风及环境传感器融为一体,实现了实时语义理解、场景任务与自然交互,使AI从一个应用升级为系统本身。
在操作系统层面,Android XR在继承移动生态的基础上,为空间计算提供了底层原生支持,有效解决了XR行业长期存在的碎片化问题。这一举措使开发者与内容生态得以进入统一轨道,同时也为Gemini引入了标准化的空间入口。
值得一提的是,Project Aura的硬件研发与制造几乎全部由中国团队完成。从光学系统到空间计算芯片,再到整机架构与生产体系,中国团队形成了完整、可控且可规模化的产业链优势。其中,X—Prism光学系统由中国团队独立研发并量产;X1S空间计算芯片由XREAL端到端自研设计;供应链体系扎根长三角,可靠度与规模化能力领先全球;上海更是成为XREAL全球研发与未来AI终端创新中心。
徐驰在大会上进一步指出:“过去,我们往往期待一家绝对领先的公司,如苹果或特斯拉,为行业制定标准,其他公司只需跟随。但如今时代已变,没有任何一家公司能够包揽从系统、AI到硬件的所有创新。我们真正需要的是一个‘全球化的创新联盟’,共同推动下一代计算平台的诞生。”他强调,中国已成为全球硬件创新最快、制造链条最完整、迭代效率最高的基地。凭借硬件创新与完整制造生态,中国企业首次有机会深度参与下一代计算平台的标准与话语权定义。AI连接世界的“眼睛”,正从中国诞生。
根据官方信息,Project Aura预计将于2026年正式面向市场推出。













