meta Ray-Ban meta 智能眼镜近日迎来了其v11版本的重大更新,为用户带来了一场前所未有的智能交互体验革新。此次更新的最大亮点,莫过于引入了“实时 AI”(Live AI)功能,这一创新技术将率先在参与“早期体验计划”的用户中得以应用。
在过去,meta AI仅能通过拍摄静态图片并进行分析来回应用户的“Hey meta”指令。而v11版本的“实时 AI”功能,则实现了对用户视野的持续观察,并能以更加自然流畅的方式与用户进行对话。这一功能的实现,意味着用户无需再使用特定的唤醒词,即可随时向AI提出问题,而AI也能根据用户的上下文进行记忆和回应。
在“实时 AI”会话期间,眼镜会实时录制并分析用户所见的内容。用户可以随时打断AI的讲述,提出新的问题或更改话题,而AI也能在用户提问之前主动提供有用的建议。这种交互方式,无疑为用户带来了更加便捷和智能的使用体验。
meta的“实时 AI”功能与谷歌的Gemini Live在对话式AI方面有着异曲同工之妙,两者都支持打断和记忆查询。然而,与Gemini Live需要依赖手机不同,meta的“实时 AI”功能允许用户完全解放双手,只需通过眼镜即可与AI进行交互。
除了“实时 AI”功能外,v11版本还带来了“实时翻译”的实用功能。用户可以通过这一功能,与不同语言背景的人进行无障碍交流。无论是英语、西班牙语、法语还是意大利语,用户都能通过手机屏幕查看对方的回复,或通过Ray-Ban meta眼镜的扬声器收听翻译结果。
v11版本还集成了Shazam音乐识别功能。用户只需简单地说一句“Hey meta,Shazam这首歌”,就能轻松识别出周围播放的音乐。这一功能的加入,无疑为用户在享受音乐时提供了更多的便利和乐趣。
对于想要立即体验这些新功能的用户来说,他们可以通过注册“早期体验计划”来率先尝鲜。而未能加入该计划的用户,则需要等到2025年初的正式版本发布后才能体验到这些创新功能。用户可以通过meta View应用程序的设置菜单轻松加入“早期体验计划”,享受这场智能交互体验的革新之旅。
近几个月来,meta在AI技术方面不断推陈出新,为用户带来了诸多实用的更新。例如,meta AI现在可以“记住”用户的一些特定信息(如停车地点),并拍摄相关照片以创建后续提醒。这些功能的加入,无疑进一步提升了meta智能眼镜的实用性和用户体验。