ITBear旗下自媒体矩阵:

Meta Aria Gen 2发布:AI眼镜“感知全开”,能否读懂世界?

   时间:2025-03-06 23:12:33 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

meta近期悄然发布了其“次世代”AI眼镜——Aria Gen 2,尽管这款眼镜目前仅供研究人员使用,并未面向消费市场,但它依然透露出meta在AI眼镜领域的雄心壮志和技术积累,甚至让人窥见了下一代Ray-Ban meta眼镜的雏形。

Aria Gen 2并非横空出世,它的前身——Aria Gen 1于2020年推出,旨在通过提供尖端研究硬件和开源数据集、模型和工具,加速机器感知和人工智能领域的技术转化。五年后的今天,Aria Gen 2实现了全方位升级,其“朴素”的外表下隐藏着疯狂的技术实验。

从外观上看,Aria Gen 2依旧保留了原型产品的粗犷风格,但与第一代相比已有显著进步。其正面镜框部分几乎与普通眼镜无异,重量也控制在了75克,不过镜腿部分仍然略显宽大。然而,考虑到Aria Gen 2内置了包括RGB相机、6DoF SLAM(空间定位)相机、眼动追踪相机、空间麦克风、IMU(双惯性测量单元)、气压计、磁力计和GNSS(卫星定位)等一系列传感器,这样的设计已经相当出色。

更令人惊叹的是,meta甚至在鼻垫部分巧妙地嵌入了一个用于测量心率的PPG传感器和一个用于准确拾音的接触麦克风。这种近乎“堆料”的设计思路,反映了meta对智能眼镜未来形态的深刻思考:只有当眼镜能够像人类一样持续不断地感知并理解周围世界时,它才有可能真正成为下一代计算平台。

Aria Gen 2通过6DoF SLAM、RGB摄像头与IMU的紧密协作,能够实时构建周围环境的精细三维地图,并持续准确感知用户的位置和状态变化。接触麦克风和心率传感器则进一步拓宽了眼镜设备对用户状态的感知维度,使其与人类感知之间的差距进一步缩小。相比之下,目前包括Ray-Ban meta在内的所有AI眼镜对外界的感知基本只依赖单颗RGB摄像头,Aria Gen 2的多模态感知能力无疑是一次质的飞跃。

meta还透露,感知不仅仅是收集不同维度的数据,要真正读懂真实世界的空间环境,还需要依赖结构化语言模型和端到端学习。Aria Gen 2不仅支持手势追踪,还引入了新的AI个人助手Ally用于人机交互,并开放了各类接口,允许研究人员开发定制应用来测试各类交互和AI算法在眼镜端的效果。

Aria Gen 2所搭载的SLAM、眼动追踪、手势追踪、语音识别和交互等功能,都是基于meta专门定制的低功耗AI芯片实现的。这颗神秘的芯片使得Aria Gen 2能够在无需云端连接的情况下运行复杂的机器学习模型。与上一代采用骁龙835芯片的Aria以及目前普遍采用骁龙AR1 Gen 1平台的AI眼镜相比,meta定制芯片的优势显而易见。

在疯狂的硬件堆料和75克的重量下,Aria Gen 2还实现了续航的提升,官方宣称可连续使用约6–8小时。这一表现很大程度上得益于更高效的定制芯片和电源管理设计。当然,Aria Gen 2并未配备支撑AR显示的光学显示模组,这也是其续航能够延长的原因之一。

从Aria Gen 2的技术布局来看,下一代Ray-Ban meta眼镜的技术定义已经初露端倪。最直观的变化可能来自芯片端。目前这代Ray-Ban meta采用的是骁龙AR1 Gen 1平台,但未来或许将转向meta定制的AI芯片,以提升本地AI计算能力,最大化匹配meta在产品端的需求。

在感知层面,尽管Aria Gen 2所拥有的“感知全开”能力可能不会完全平移到消费级产品中,但部分关键技术极有可能被精简并集成到下一代Ray-Ban meta中。比如,在已有手势识别能力的基础上扩展出更具应用潜力的手势追踪,或者导入接触式麦克风和骨传导技术,结合定制芯片实现的本地AI推理能力,实现更准确和智能的人声拾音。这些功能组合有望成为下一代Ray-Ban meta的标准配置。

当然,下一代Ray-Ban meta最大的悬念仍然是“显示能力”的引入。尽管Aria Gen 2并未配备光学显示模组,但考虑到meta的计划和技术发展趋势,未来消费级眼镜很可能会在显示技术上有所突破。英国《金融时报》曾引述知情人士表示,meta计划最早于2025年为Ray-Ban meta智能眼镜导入显示屏,用于显示meta AI的通知回复、翻译等信息。这一消息无疑让人对下一代Ray-Ban meta充满了期待。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version