群发资讯网

谷歌自曝三大AI眼镜计划!对战苹果Meta

智东西 作者 | 陈骏达 编辑 | 心缘 谷歌的安卓XR全家桶,迎来重磅更新! 智东西12月9日报道,今天凌晨,谷歌在

智东西

作者 | 陈骏达

编辑 | 心缘

谷歌的安卓XR全家桶,迎来重磅更新!

智东西12月9日报道,今天凌晨,谷歌在安卓XR特别直播活动中重磅发布了安卓XR生态的多项全新进展:首款安卓XR头显三星Galaxy XR上线三大新功能;与中国创企XREAL合作的有线XR眼镜Project Aura确认将于2026年发布;AI眼镜原型机首次用上谷歌Nano Banana图像编辑能力;同时,面向安卓XR开发者的整套SDK与API全面升级。

谷歌正以“安卓+Gemini”的组合拳,加速推进安卓XR平台的进化。

谷歌副总裁、安卓XR主管Shahram Izadi和三星执行副总裁、XR负责人Kihwan Kim共同主持了这场发布会。在开场时,二人介绍,安卓XR生态是一个完整的“设备光谱”。光谱的一端,是功能强大的头显,用于较短时间、更沉浸式的计算任务,比如观看3D电影、玩游戏和处理工作。另一端则是轻量级的AI眼镜,可全天佩戴,快速获取信息。而中间则是融合了两者的设备,比如有线和无线的XR眼镜。

在XR头显领域,安卓XR进一步补齐了交互体验。如今,Galaxy XR可以通过PC Connect直连电脑,全新的“Likeness”功能酷似Vision Pro的Persona功能,让用户的虚拟形象在XR世界里更逼真了。Galaxy XR还将在明年新增系统自动空间化功能,让每个视频、网页都能提供沉浸式交互体验。

XR眼镜则将头显所能提供的体验轻量化。Project Aura的更多细节在这场发布会曝光,其采用的光学透视功能让用户能兼顾显示与虚拟世界,还可以与PC等设备直连,Gemini也融入了Project Aura,支持屏幕问答功能。

AI眼镜方面,除了Nano Banana修图的功能演示外,谷歌并未带来太多惊喜。不过,安卓XR开发者在AI眼镜领域的工具包迎来多项升级:适用于AI眼镜的全新设计语言与UI组件发布,AI眼镜模拟器发布,运动追踪和地理空间等工具和功能也同步上线,让开发者更方便地为AI眼镜打造专属应用。

从XR头显到XR眼镜再到AI眼镜,谷歌用安卓XR一统多形态扩展现实设备的战略,已经日渐清晰。

一、Galaxy XR首推虚拟形象,明年要让2D内容一键变3D

安卓生态主席Sameer Samat称,随着Gemini和安卓的融合,未来的设备都将变得更为智能,向通用助手的方向转变。这将从根本上改变我们与技术互动的方式,安卓XR平台就是上述技术开始融合的起点。

安卓XR是业界首个用于扩展现实设备的统一平台,由谷歌、三星和高通在安卓的基础上构建,这意味着谷歌生态里所有的应用都可用于安卓XR。

今年10月,谷歌和三星联手推出了Galaxy XR,这是首款由安卓XR驱动的设备,具备高分辨率、多模态AI输入,并内置由Gemini驱动的AI功能。比如,用户可以在XR世界里沉浸式体验谷歌地图里的街景,然后召唤出Gemini询问更多信息。

安卓XR生态也在不断扩展,发布仅一个月后,Google Play商店中现在已有超过60款为XR打造的应用和游戏。今天,Galaxy XR扩展了一系列新功能。

全新的PC Connect功能让用户可以直接从笔记本拉取一个窗口,呈现在XR设备上。这一功能可用于办公、创作和娱乐,谷歌XR的产品经理演示了在XR屏幕上玩《城市:天际线2》的体验。

Galaxy XR还推出了“Likeness”,让用户能在各类视频会议软件中,呈现自己更为逼真的XR虚拟形象。这一功能与苹果Vision Pro的“Persona”颇为类似。

上述两项新功能,以及沉浸式的旅行模式功能于今天即刻推出,Galaxy XR还将在明年新增系统自动空间化(System autospatialization)功能,允许用户在多个应用中将普通的2D内容转换为3D内容。

这一过程完全是在头显上运行的,所以几乎适用于任何应用,能让每个游戏、每个YouTube视频甚至是整个网页都变成沉浸式的。

二、与XREAL合作产品明年发布,Nano Banana融入AI眼镜

除了Galaxy XR之外,谷歌也在构建安卓XR的设备生态。他们与国内XR眼镜创企XREAL合作的Project Aura,将提供安卓XR生态中全新的有线XR眼镜体验。

戴上Project Aura后,映入眼帘的首先是通过透明镜片看到的周围真实世界。这被称为光学透视,让用户用自己的眼睛看世界。

Project Aura将虚拟体验投射到用户的视野中,并允许用户像使用安卓XR头显一样用手势交互。Project Aura通过一个有线连接的小型计算模块供电,该模块包含主要计算单元和电池,还可以兼作触控板,这让眼镜本身保持相对轻便舒适。

这款XR眼镜也可以与PC等设备直接连接。在连接PC时,用户可以直接通过电脑的键盘和触控板与之交互。

Gemini也融入了Project Aura,它可以看到屏幕上的内容,甚至是电脑窗口里的内容。用户可以通过镜腿上的按钮触发Gemini,并直接向其提问与画面内容有关的问题。

这款XR眼镜的正式产品名尚未公开,谷歌称其将于2026年正式发布。

在AI眼镜领域,谷歌此前已经在I/O大会上展示了原型机。在与三星的合作中,谷歌正与Warby Parker和Gentle Monster两大眼镜品牌,合作打造两种类型的眼镜。

一类设备是无显示AI眼镜,将配备内置扬声器、摄像头和麦克风,用户可以听音乐、打电话、拍照,或是与Gemini对话等等。另一种是带有显示屏的AI眼镜,也就是I/O大会上的同款产品。

谷歌XR高级总监Juston Payne演示了后者的原型机。这款眼镜支持视觉问答、实时翻译等有显示AI眼镜的常见功能。

让人眼前一亮的是,谷歌的Nano Banana图像编辑模型,这回也融入了AI眼镜。Payne用眼镜给现场人员拍了张照片,然后在画面中P上了一个戴着墨镜的安卓机器人形象,全程靠语音交互实现。不过,谷歌用小字标注称,P图的延迟是模拟的。

三、开发者工具包大放送,AI眼镜成更新重点

谷歌还官宣了一系列安卓XR开发者SDK和API更新。谷歌安卓开发者产品管理副总裁Matthew MaCullough称,安卓XR使用了开发者从构建自适应应用时就已熟悉的API和工具,换句话说,为安卓开发,就是在为XR开发。

安卓XR SDK的开发者预览版3于今天发布,此版本拥有更高的稳定性和一系列新功能,面向AI眼镜的更新成为一大重点。

在面向XR头显的开发工具包中,安卓XR增加了用于构建丰富3D场景的新功能,例如具有柔性头部锁定和过渡效果的空间动画。此外,适配现有UI变得更加容易了。Material 3组件如今可以自动转化为XR元素。

为了增强AI眼镜的使用体验,安卓XR为Jetpack XR SDK 引入两个全新、专门构建的库:

一个是Jetpack Projected API,这一API让开发者能将现有的移动端App直接迁移到安卓XR平台上,并支持从移动端App访问显示屏、摄像头等XR设备组件。

Jetpack Compose Glimmer则是一套全新的设计语言和UI组件,用于打造有显示AI眼镜的交互体验。其UI组件针对AI眼镜的输入方式和样式要求进行了优化,能做到清晰、易读,且最大限度地减少干扰。

安卓Studio中引入了AI眼镜模拟器,可以模拟眼镜特有的交互方式,例如触摸板和语音输入。

安卓XR还扩展了Jetpack XR的ARCore,以支持AI眼镜的更多功能。首批新功能是运动追踪和地理空间,能够帮助开发者创建实用的导航体验,适配AI眼镜等全天候佩戴设备。

通过与Firebase的合作,Gemini Live API现在能更好地支持AI眼镜,提供智能交互体验。

Uber已经打造了一套基于安卓XR AI眼镜的演示案例。用户可以在落地机场后,借助AI眼镜上直接看到接机行程信息,获取机场内部导航,并识别车牌号,更便捷地完成打车。

对于XREAL的Project Aura等设备,安卓XR推出了安卓Studio中的XR眼镜模拟器。这款工具可提供准确的内容可视化,同时匹配真实设备的视场(FoV)、分辨率和DPI,加速开发。

结语:专注平台不造硬件,谷歌没走Google Glass的老路

安卓XR平台去年年底发布预览版,并于2025年正式发布。1年时间里,该平台已经在头显、XR眼镜与AI眼镜领域有了快速进展。

与此前自研Google Glass的模式不同,在硬件层面,谷歌选择与三星、XREAL等厂商合作,自己则专注于安卓XR平台本身,以统一的平台、统一的能力和统一的开发体系,构筑一个庞大的XR生态。

对于产业链而言,在安卓XR的带动下,XR设备拥有了统一的操作系统平台,某种程度上缓解了XR设备此前的生态碎片化问题。未来,安卓XR能否持续推动XR的应用和内容生态繁荣,值得持续关注。