
2012年,Google推出了「ProjectGlass」智能眼镜原型机,可以录像,支持语音交互,镜片上一寸不到的LED屏幕还能显示一些应用的界面,完全如同科幻电影走进现实。
最终,这款超前的设备由于隐私争议和技术限制等原因,只度过了短暂的一生,但也让世人瞥见了一种全新的智能设备形态。

13年后的2025年,智能眼镜成为新兴的硬件浪潮,Google作为这个品类曾经的先行者,带着AndroidXR和Gemini又杀了回来。
刚刚的AndroidShow活动只有半个小时,内容却干货满满,Google正式披露了他们眼中四种XR设备路线:

AndroidXR:把蛋糕做大
AndroidXR这个系统于去年年底首次正式公布,顾名思义就是一个为XR设备开发的Android系统。
Google强调,为Android开发,就是在为AndroidXR开发,后者可以直接兼容使用GooglePlayStore上的大部分手机和平板应用。

跟手机上的Android一致,AndroidXR为行业里的厂商,提供了一个相当完善的系统和生态平台,能直接利用现成的Android应用生态,调用Google服务和GeminiAI;而专门开发XR应用的开发者,也得到了一个分发应用的平台。
对于新型的XR初创公司,AndroidXR就是他们等待已久的平台,XREALCEO徐驰告诉TheVerge:
TheVerge提前体验了一款AndroidXR原型机,当编辑使用Uber打车时,眼镜的显示屏弹出一个Uber的小部件,显示预计接客时间、车牌号等信息,以及前往上车点的地图路线指引,这些功能都直接来自Uber原本的Android应用。

AndroidXR的号召力比MetaHorizon平台更强,也比苹果更开放,这意味着未来将有更多第三方厂商开发AndroidXR设备,蛋糕越做越大,XR应用和内容的生产者更愿意加入生态。
我们最熟悉的AndroidXR设备,自然是十月底发布的三星GalaxyXR头显,爱范儿此前已经进行过详细报道,这次活动中Google也推出了三个更新:

这次AndroidXR的重头戏,当然是三款不一样的眼镜。
ProjectAura:小巧如眼镜,强大如头显
在今年5月的I/O大会上,Google首次公布了与国内AR眼镜厂商XREAL合作的ProjectAura产品,今天的活动则带来了更多体验和使用上的细节。
ProjectAura是一款「有线XR眼镜」,这款设备的理念很简单,就是以眼镜这种轻巧方便的形式,实现类似头显的双目XR效果,适合出门使用。

当然,比起传统的眼镜,Aura要更大更重,硬件形态与XREAL其他产品很类似:一个AR投屏眼镜,以有线的形式连接一个AndroidXR计算终端——终端还能充当一个触控板。
不同的是,Aura支持和头显一样的手势交互,并带有透视效果,用户能够看到周围环境,应用界面投射其上。

Google选择XREAL这家初创公司的原因,大概率是看中了XREAL做AR眼镜硬件的强大实力:Aura实现了70°FOV,为消费级AR的最大实用视场,能够让Gemini助手更好地与真实世界进行互动,也能获得沉浸式的观影体验;性能方面则采用了GalaxyXR同款高通骁龙XR2PlusGen2芯片组。
得益于AndroidXR系统,Aura能够直接使用那些专门为GalaxyXR头显设备开发的XR应用,只要有对应的SDK,应用的功能和体验就能自动调整到适合XR眼镜的状态。
比起又大又重的头显,ProjectAura更适合「PC连接」功能,用户在工作时可以将Aura当成一个外接大屏,Windows应用可以以大窗口形式在Aura中显示,工作中不会的操作甚至可以让Gemini教你。

根据多家外媒,ProjectAura的使用体验确实非常接近GalaxyXR头显,重量却要轻上不少,不过考虑到小巧的体积和强大的性能,Aura的发热和续航将成为一个问题。
不过,ProjectAura在这次活动上依旧未能正式推出,Google承诺将于明年发布。
智能眼镜,首先要让人愿意戴
另外两款眼镜,则是完全无线的产品,更适合日常佩戴,因此也更需要强调时尚属性,因此除了三星,Google也宣布了这类产品将与WarbyParker以及GentleMonster连个传统眼镜潮牌合作。
第一款眼镜,是类似Ray-BanMeta的最基础形态,我们称之为「AI眼镜」不带任何显示屏,用户可以用眼镜和Gemini沟通、拍照、听歌。这种产品虽然不是真的「XR」眼镜,却是大众接受度最高的品类。
Google更看重的是第二款,其实就是在第一款的基础上增加单目AR显示屏,用来显示一些简单的卡片和组件,类似MetaRay-BanDisplay,这也是今年I/O大会上进行过演示的品类。

▲活动上出现的原型机
操控这个XR眼镜的方法有两种,第一种就是利用眼镜柄上的触控板,第二种当然就是Gemini语音输入了。GeminiLive能够基于当前看到的视觉环境上下文,以及用户的自然语音控制,去完成多步骤、复杂的任务。
这次演示的内容和I/O类似,同样展现了智能眼镜语音指令识别、识物、记忆、导航、实时翻译等等能力。
重点是,Google单目XR眼镜是一款「手机配件」,它大部分的运算都在手机,并且直接使用Android手机上的应用——作为对比,Meta只能用自家几个社交媒体应用。Aura的界面简洁干净,没有应用列表,只提示最重要的信息,来自手机App实时通知,给人感觉更像是智能手表。

▲图源:AndroidAuthority
即使智能眼镜正在井喷式发展,但未来的十年里,人人兜里依旧会有智能手机,Google深知这个道理,于是他们的目标,只是想通过这种单目式的XR智能眼镜,慢慢减少你掏出手机的次数。同样是单目XR眼镜,Google的产品也比Meta要小巧很多。
并且,Google还告诉TheVerge,为了更多人使用眼镜的多模态能力,明年AndroidXR眼镜还会支持iOS。
当年导致GoogleGlass折戟的另一个导火索——隐私问题,Google也抓门进行了说明,这些AndroidXR眼镜在录制时都会发出明亮的脉冲光,并用红绿光区分录制和Gemini摄像头使用。
和ProjectAura一样,这两款AI眼镜产品也将于明年推出,目前Google正在和三星、WarbyParker以及GentleMonster这些合作伙伴不断调整产品。

▲用语音让Gemini拍摄、调用NanoBana创作
复活GoogleGlass,Google这次有备而来
作为曾经领先过时代的先行者,面对这两年智能眼镜的浪潮,Google的整个步调,却走得比想象中慢不少,来得甚至比擅长「后发制人」的苹果还要更晚。
AndroidXR于去年年底正式官宣,这期间,Google找了不少厂商合作,有老搭档三星高通,有新朋友Xreal,还有跨界的伙伴WarbyParker和GentleMonster。

▲AndroidXR由Google、三星、高通合作开发
目前这四种不同的产品形态,其实都有不同程度妥协,明显都不是最终形态。
实际上,Google给AndroidAuthority「剧透」了一款没有在活动上公开的新产品,实际演示效果给媒体留下深刻印象:无线双目XR眼镜,视野广阔,画面效果更好,目前公布的四款产品身上的优点集其一。
但Google表示,无线双目XR眼镜短期内不会对外销售,最早也要等到2027年。
很明显,这款有点小彩蛋性质的神秘产品,才是Google心目中的「GoogleGlass」升级版,但他们并没有选择直接发布这款产品,甚至没有放到发布会上谈。
Google其实不必担心会在这场新兴硬件的激烈竞争中落后,他们已经吸收了GoogleGlass当年的教训,手握AndroidXR和Gemini两大王牌回归。
不仅是GoogleGlass,即使对于现在的XR眼镜,应用和内容生态不足,杀手级场景的缺乏,还是难以突破的困局。
AndroidXR不仅能利用现成的App生态,这个平台本身也能吸引大量的设备厂商和开发者,大大降低了门槛,成长速度值得期待。

更重要的是,作为目前最出色的AI,Gemini填补了杀手级App的空缺。借助智能眼镜的摄像头、麦克风和XR显示屏,Gemini强大的上下文理解与多模态能力得以充分发挥,创造出智能手机和其他硬件难以触及、专属于智能眼镜的独特场景。

对Google来说,接下来就是按部就班把画的饼一一填上的过程,比当年激进和实验的GoogleGlass更有章法。接下来几年我们都能看到这些产品逐步迭代,渐渐朝最理想的形态靠拢。
当然,这三款新的「GoogleGlass」究竟是不是一个良好的重新出发,还需要等产品实际问世,由时间验证。
但至少,不管是Google还是整个智能眼镜行业,明年都相当值得期待。