谷歌在沉寂多年后,终于再次向XR(扩展现实)领域发力,推出了专为XR设备设计的Android XR操作系统。这一举动标志着安卓生态首次为XR设备打造专用平台,预示着XR技术将迎来新的发展高潮。
早在2013年,谷歌就曾涉足AR(增强现实)领域,推出了Google Glass。然而,由于价格高昂、隐私争议和技术瓶颈,这款AR眼镜并未能掀起波澜。随后,谷歌又推出了Google Daydream平台,旨在将智能手机转变为VR(虚拟现实)设备。遗憾的是,市场反应冷淡,该平台最终在2019年停产。如今,谷歌携手三星和高通,再次向XR领域发起冲击。
据悉,Android XR系统将率先在头显设备上亮相,首款设备由三星制造,代号为Project Moohan,预计将于明年面市。在此次发布会上,三星MR头显的外观概念图首次曝光,同时,三星还将独家负责开发谷歌的视觉透视(VST)头显。
这款头显将搭载于12月11日发布的Gemini 2.0 AI,支持自然语言对话控制、任务规划以及即时信息检索功能。用户只需简单的手势,即可快速获取眼前物体的相关信息。与苹果和meta的设备不同,这款头显能够同时感知真实与虚拟内容,并提供内外视图切换功能。
在处理器方面,高通已确认将为这款头显配备骁龙XR2+ Gen 2芯片。该芯片支持单眼高达4.3K分辨率,以每秒90帧的速度运行,将显著提升视觉体验,使VR环境更加逼真。该芯片还支持最多12个具有全彩视频直通和深度感应功能的并发摄像头,进一步增强用户的沉浸感和交互性。
除了头显设备,谷歌还计划推出AR眼镜。目前,谷歌已与Xreal达成合作,后者将负责开发谷歌的光学透视(OST)AR眼镜。据透露,这款眼镜预计将采用micro-OLED显示技术,具体供应商尚未确定。谷歌表示,未来其智能眼镜将成为智能手机的外接屏幕工具,为用户提供更加便捷的使用体验。
在Android XR操作系统中,谷歌将AI能力作为核心。借助Gemini 2.0,用户可以通过自然语言对话控制设备、规划任务、研究主题并完成各种任务。同时,Circle to Search功能允许用户通过简单手势快速获取面前物体的相关信息。这种交互方式不仅提升了用户体验,还为开发者提供了更多的创作空间。
Android XR操作系统分为三个层次:二维应用、空间化应用程序和完全沉浸式应用程序。这些层次的设计让人联想到苹果的visionOS,支持多个可移动和调整大小的窗口,用户可以像使用标准计算机一样操作。同时,Android XR还集成了许多核心Android应用程序和服务,包括Maps、YouTube、Google TV、Photos、Docs和Chrome等。
在视频内容方面,谷歌计划充分利用YouTube上已有的立体视频资源,为用户提供丰富的沉浸式体验。同时,谷歌还将通过第三方应用程序的软件开发工具包(SDK),确保用户可以从Google Play商店访问现有的Android手机和平板电脑应用程序,进一步扩展其内容库。
为了促进内容生态的发展,谷歌推出了多项措施来支持开发者。新的Jetpack XR SDK、Android XR模拟器以及与Unity合作提供的扩展工具,旨在帮助开发者更轻松地创建和测试空间应用程序。这些举措将为Android XR操作系统的发展提供有力保障。
谷歌还表示,其智能眼镜将很快成为用户日常生活中的全天候智能辅助工具。用户可一键激活Gemini,无需使用手机即可获取有用的信息,如路线指引、翻译服务或消息摘要等。这些信息将直接呈现在用户的视线范围内或通过耳机传递,确保信息获取的便捷性和即时性。
随着Android XR操作系统的推出,谷歌在XR领域的布局逐渐清晰。未来,随着更多设备的推出和生态系统的不断完善,Android XR有望吸引大批XR制造商加入,共同推动XR技术的广泛应用和发展。