
点击蓝字 关注我们

北京时间 12 月 9 日凌晨 2 点,谷歌举办了 "Android Show: XR Edition" 特别发布会,全面展示了其在 XR 领域的布局和计划。
此次发布会展示了三个主要信息:其一是为已推出的三星 Galaxy XR 头显引入新的功能,其二则是首次展示了谷歌与 XREAL 合作的智能眼镜 Project Aura。更重要的是,谷歌还同时公布了接下来几年的硬件规划,除 Project Aura 以外,计划还有三款智能眼镜待推出,其中,将于 2027 年推出一款支持双目显示的智能眼镜。
01 Galaxy XR 新功能
发布会一开始,谷歌首先聚焦于已经上市的首款 Android XR 设备——三星 Galaxy XR 头显,推出了多项软件更新。
这些更新主要为了解决头戴设备在实际使用中遇到的一些问题,比如如何提升工作效率、如何适应移动场景,以及如何在虚拟交流中表现得更自然。
第一个重要功能是"PC Connect"。这个功能允许用户将 Windows 电脑和 Galaxy XR 头显无线连接起来,然后可以把电脑的整个桌面或者某个单独的应用程序窗口 " 拖 " 进头显的虚拟空间里,和头显里原有的 Android 应用一起并排使用。

这样一来,就摆脱了实体显示器大小的限制,为用户创造了一个可以自由扩展的工作区域。无论是处理多项任务,还是想在更沉浸的环境里玩 PC 游戏,都变得可能。这个功能从今天起将开始提供测试版。
第二个功能是" 旅行模式 "。这个模式专门为在飞机、火车等交通工具上使用头显而设计。它通过优化算法,使得在移动过程中头显里的画面也能保持稳定,从而将狭小的座位空间变成一个可用的私人影院或者专注的工作区。这解决了在旅途中使用 XR 设备容易头晕或者画面晃动的问题。

此外,为了改善用户戴着头显进行视频通话时的体验,谷歌推出了一个叫做"Likeness"(虚拟形象)的系统(有点类似于 Vision Pro 的虚拟形象功能)。这个系统可以通过头显的传感器生成一个非常逼真的用户数字形象,并且能实时模仿用户真实的面部表情和手势。

这样,在进行视频通话时,对方看到的就不再是一个卡通头像或者静止的图片,而是一个能生动反映你神态的数字形象,让远程沟通感觉更自然、更亲切。这些更新共同表明,谷歌正努力让 XR 头显从一个酷炫的玩具,变成一个能真正帮到人们日常工作和生活的工具。
02 首次详细介绍 Project Aura
这次发布会的重点,是谷歌第一次详细介绍了基于 Android XR 平台的智能眼镜产品计划。谷歌明确表示,没有一种设备能适合所有人,因此 Android XR 平台的设计目标就是支持各种各样不同形态的设备。
这次公布的硬件规划主要分为三条产品线。其中,谷歌与 XREAL 合作的产品 Project Aura 代表的是有线连接的 XR 智能眼镜,这款产品将于 2026 年推出。

Project Aura 使用的是光学棱镜方案,而不是上面提到的波导,这使得它能提供高达 70 度的视野范围,比目前市面上大多数消费级波导眼镜(通常 30-50 度)要宽阔很多,感觉就像在眼前放了一块大屏幕。
更关键的是,它不是一个需要连接手机才能用的配件,而是一个完全独立的 XR 设备。眼镜本身通过一根线连接到一个手机大小的控制器,这个控制器里装有和三星 Galaxy XR 同款的骁龙 XR2+ Gen 2 芯片,运行着完整的 Android XR 系统。
这意味着 Project Aura 具备和高端 XR 头显类似的核心能力:用户可以用裸手进行操控(用手指指向并捏合),来管理悬浮在空中的多个应用窗口(比如同时打开浏览器、地图和视频软件)。它把眼镜的便携性和头显级别的功能、交互方式结合了起来,主要适合在相对固定的环境(比如家里、办公室)中作为移动工作站或娱乐中心使用。

据体验过的海外媒体介绍,Project Aura 具备 Galaxy XR 的几乎所有功能。用户可以同时打开多个应用程序,并将 Chrome、Google 地图和 YouTube 等应用围绕屏幕排列。可以玩游戏,它能将 3D 桌面角色扮演游戏的画面投射到用户面前。此外,用户还可以直接连接到附近的电脑,并通过它玩游戏,延迟极低。
从本质上讲,我们可以把 Project Aura 看作是三星 Galaxy XR 的轻量级替代品,它牺牲了视野和透明度来换取时尚的外观,而不是未来户外 AR 眼镜的竞争对手。
03 智能眼镜产品规划
此外,谷歌还称,他们目前正在研发两款眼镜。这是谷歌与三星、Gentle Monster 和 Warby Parker 等合作伙伴共同开发的、最接近普通眼镜的形态。

其中一款为无显示的纯音频 AI 眼镜,计划在今年推出。它的设计非常简洁,目标就是一个免提的语音助手。它看起来和普通眼镜没什么区别,没有屏幕。它通过无线方式连接手机,内部装有扬声器和麦克风,核心功能就是让用户通过语音和谷歌的 Gemini 人工智能助手对话。
它的关键特点是配有一个摄像头,让 Gemini 能 " 看见 " 用户看到的东西,从而可以应要求识别物体、读文字、翻译路牌或者拍照,所有结果通过声音告诉用户。它的目标是在不引人注意的情况下,随时提供帮助。
另一款则是具备单目显示的 AI 眼镜,预计在 2026 年推出,它在纯音频版的基础上,在一边的镜片上方增加了一块非常小的、隐蔽的显示屏。这块屏幕采用波导技术,将微投影仪的光导向眼睛,实现透明显示。

在发布会视频中,谷歌展示了包括翻译、识图、寻路等一些与 Gemini AI 的简单互动。它在需要时能提供快速的视觉信息,同时又保持了眼镜的轻便和时尚感。据媒体透露,谷歌展示的开发套件重量只有 49 克。
此外,谷歌还提到,计划在 2027 年左右推出为双眼都配备屏幕的智能眼镜。这种眼镜能为每只眼睛提供略有差异的图像,从而产生立体感和深度信息,实现更真实的混合现实(MR)效果,即把虚拟物体更自然地叠加到现实世界中。这将是无线智能眼镜在视觉体验上的一次重要升级,旨在提供比单眼显示更沉浸、更舒适的信息观看体验。
04 推出 Android XR SDK(软件开发工具包)的开发者预览版 3
所有这些硬件计划的基础,都在于 Android XR 平台本身的不断成熟和开放。谷歌正在尝试把 Android 在手机领域的成功经验带到 XR 领域:通过提供一个统一的、功能强大的基础平台,来降低硬件公司制造设备的难度和软件开发者制作应用的难度,从而解决过去 XR 市场各自为政、不成体系的问题。
这次发布会上,谷歌同步推出了 Android XR SDK(软件开发工具包)的开发者预览版 3。这一版本将正式开始支持 AI 眼镜应用开发,与此同时,还将为像 Galaxy XR 这样的头显和 Project Aura 这样的有线眼镜,提供了更强大的空间计算工具,帮助开发者创建更复杂、交互性更好的 3D 应用和游戏。

小结
谷歌这次 Android XR 发布会的核心信息很明确:XR 的未来不应局限于单一的设备形态。
从音频 AI 眼镜,到单目 AI 眼镜,再到仍在规划中的双目显示眼镜,谷歌 XR 正试图覆盖从生活辅助到移动办公的多种需求。
同时,通过不断为已上市的头显增加实用功能,以及发布关键的开发者工具,谷歌正在从硬件路线、软件体验和开发生态三个层面,系统地构建 Android XR 的竞争力。
虽然面向普通消费者的产品大规模上市还需要等待一段时间(最早要到 2025 年底),但谷歌已经表明,它正认真地把 XR 看作下一代计算平台的重要组成部分,并且正通过开放合作的方式,为这项技术融入普通人的生活做准备。
这条路能否成功,取决于合作伙伴是否积极响应、开发者能否创造出吸引人的应用,以及最终的产品在价格、设计和实用性上能否真正让大众消费者接受。但可以确定的是,谷歌已经明确地加入了这场定义未来人机交互方式的竞赛。
文 / 清月泠
文中未标注的图片均来源于网络
获知更多最新行业资讯
扫码加入 XR 发烧友交流群

商务合作|
爆料投稿|
媒体合作|
往期精彩推荐



VR / AR 星球



登录后才可以发布评论哦
打开小程序可以发布评论哦