苹果2016年WWDC结束了,没有大家期望的硬件,也没有最近火热的VR/AR相关的信息。对于这个领域,库克在2016财年第一季度的电话会议中提到,VR/AR并不只是一个有利可图的市场,更是一个有趣的新科技,“It’s very cool.”
那么,苹果在这个被称为下一个计算平台的大机会面前,又做了一些什么呢?从智东西(公众号:zhidxcom)整合到的信息来看,苹果在十多年前就开始储备VR/AR技术和专利,近来来更是通过大局收购来强化在这个领域的技术和人才实力。
苹果曾放出消息称在研制具有首创性质的VR眼镜,但目前仍未见产品。苹果将如何运用VR/AR技术?小到VR/AR技术与地图或者其他应用程序的结合,大到iPhone为VR/AR眼镜提供虚拟3D接口,甚至头盔,可能的答案有成百上千种。
智东西(公众号:zhidxcom)将带您通过对苹果VR/AR团队、收购以及专利方面信息的挖掘,来一窥苹果在VR/AR领域动作。
· · ·
研发团队超过百人
苹果在VR/AR领域的研究可以追溯到十多年前,但第一次被媒体曝光则是在2015年的3月份。当时媒体发现,苹果有一个研究AR技术的小团队。从2015年到2016年初,这个小团队不断的扩充VR/AR领域的专家,并且收购了多家相关公司。
苹果现在对外声称,自己已有百人专家团队从事虚拟现实领域的秘密研究。
苹果近几个月最重量级的新晋雇员当属计算机科学教授Doug Bowman,此前,他曾是弗吉尼亚科研中心人机交互领域的负责人,也是3D用户界面的专家,在VR及AR领域均有建树。
除了Doug Bowman,苹果还从Microsoft和Lytro挖来了大批员工。有传言说一些新进员工来自Microsoft的 HoloLens团队,另一些则来自Lytro,Lytro是一个致力于光场摄影的公司,其产品曾多次引发业内关注。曾就职HoloLens团队的那些员工具备研发领先的AR头显的经验。
此外,还有很多VR专家被秘密雇佣。从LInkedin数据看来,有一些具备VR行业经验的软件工程师被苹果雇佣,但他们是否加入此VR/AR秘密小组还不得而知。
· · ·
通过收购获取技术和人才
有很多该秘密小组的成员是通过收购的方式加入苹果的。这些收购的公司涵盖了硬件和软件等相关领域,部分公司在被收购之前在行业就已经有相当不错的名气,我们来看看苹果收购的这些公司都是啥?
PrimeSense,技术曾被Kinect采用
在2013年,苹果收购了这家3D体感领域的以色列公司,有意将动作捕捉技术融入Apple TV中。PrimeSense的三维传感技术和动作捕捉技术曾被微软最初一代的Kinect平台所采用。
PrimeSense采用肉眼不可见的近红外光来对某一个房间或场景投影,一个CMOS图像传感器会捕捉这些光线并且为某个物体或人创建虚拟的图像。这种技术使你能够用动作在软件的用户界面上进行操作,也可以被用来实现远程测量。AR在这一方面的具体应用还包括交互式游戏以及室内地图等。PrimeSense公司还能够提供高精度的360度测量技术,这项技术可被融合进VR应用中。
Metaio,增强现实领域最强软件公司
2015年5月,苹果收购了AR鼻祖Metaio。Metaio的产品Metaio Creator可以在短短几分钟之内创建AR景象。在被苹果收购之前,Metaio的软件曾被法拉利等公司购买,用来搭建AR体验空间。
Metaio的技术还被用来向游客重现柏林墙还未被推倒时的场景,游客在游览时只需用智能手机或者平板电脑扫描现有的柏林墙遗址,就可以看到被扫描部分曾经的AR景象。Metaio的技术可以被用来将AR技术融合进苹果的一些应用程序中,例如地图。
Faceshift,可实时捕捉面部表情
2015年8月份,苹果收购了Faceshift。这是苹果2015年在AR领域的第二次收购。在被苹果收购前,Faceshift与游戏及动画公司合作,向其提供运用3D传感器快速精准地对面部表情进行捕捉并实时附加于动画人物之上的技术。Faceshift还拥有相似的C端产品,可以让用户在Skype的时候将自己的脸变成卡通形象。Faceshift的产品可以被集成到更大的VR/AR产品中,因此还有更多的应用场景有待挖掘。
Emotient,它能看懂人的面部表情
2016年1月,苹果收购了Emotient,这是一家研发面部表情分析工具的公司。Emotient通过人工智能及机器学习技术来分析人类表情,这项技术被广告商用来分析受众心理并评估广告的投放效果。
有了Emotient,苹果可以优化人脸识别系统,也可以在苹果零售商店放置表情分析设备来分析顾客对于新产品的反应,除此之外,其在VR/AR方面的潜在应用也不可小觑。和Faceshift一样,Emotient的产品可以为用户创建虚拟化身,这在社交媒体及游戏方面的应用将会非常广泛。
Flyby Media,不同的扫描结果也能识别相同物体
2016年初,Flyby Media成为被苹果收购的又一家AR公司。Flyby的App可以在谷歌智能手机Project Tango上运行,通过该手机的3D传感器,您可以将信息绑定在某个地点或者建筑,只有通过扫描同一建筑才能读取这条信息。
例如,你在旧金山扫描地标性建筑金门大桥并附加了一条信息,今后参观这座桥的人可以通过Flyby App扫描该桥并读取该信息。Flyby能够吸引苹果注意的原因可能是,它的技术能够从不同的扫描结果中识别出相同的物体。苹果可以在例如照片和地图的很多app中运用此项技术。
· · ·
专利覆盖VR和AR领域
苹果已经申请了至少五个和VR头显直接相关的专利,这些专利都可以追溯到几年以前。当然,现在的技术肯定远超当时的专利所述,但不得不承认,这是一种很好的资料来探寻苹果在VR之路上所作出的尝试。
这是一个2008年的专利,有了它,用户在看普通视频的时候可以感受到影院级的效果。
这个专利像一个眼镜,图像被一个激光引擎投影到用户眼前的透明镜片上,镜片的材质类似于玻璃。在这个设计中,眼镜需要和一个手持播放设备连接并为其提供电力。
这个设计也是于2008年申请专利,和第一个专利类似,用户由一个类似于护目镜的头盔观看电影或其他内容。由图所示,两个可调节的视觉模块将用户的双目相连。这两个模块能够提供视觉矫正功能,并且通过这两个模块用户可以观看3D内容。苹果将此设备描述成个人的观影空间。
同样是在2008年申请的第四个专利描述了一个类似于Google Glass的头显设备。用户可以将其iPhone或者iPod放入其中来观看视频。这个设备被定位成一个AR设备,用户可以在能够看到周边景物的前提下观看视频以及查收邮件。
除了头显设备,苹果也在尝试其他方式来实现虚拟现实的交互。
这是一个2009年的专利,它通过摄像头来识别用户的姿势,进而根据用户的相对位置来转变3D视角。这样的设备通过追踪头部的运动来使用户能够通过转动头部来从不同角度观看3D内容,且不隔离用户所在的自然环境。
这两个分别在2010年和2012年注册的专利描述了运用AR技术,通过运动传感器在iOS设备上创建3D用户界面的技术。苹果称这个用户界面为“虚拟的房间”,用户通过调整设备的方向以及手势动作来控制该用户界面。
在2011年,苹果为一个AR新功能申请专利,这个新功能被置于地图软件中。该设计利用设备自带照相机计算当前用户与某些明显建筑物的距离。在屏幕上,用户能看到系统计算的大约距离以及一些其他信息。
最近公布的一项苹果专利显示,未来iPhone可能会采用一种透明的显示屏技术,利用这层屏幕,可以基于AR在画面上叠加一层CG元素,这项专利的名称为“透明电子设备”。
专利文件举了一个博物馆的例子,用户可以在绘画作品前点击查看绘画的详细信息,而这些信息都会叠加在现实图形上。地标建筑、历史遗迹和旅游景点也都可以利用这种技术。
· · ·
总结:苹果VR的盖头何时掀开?
以上智东西(公众号:zhidxcom)主要从团队和人才储备、公司收购和技术储备、专利布局等几方面对苹果在VR领域的组合拳,总的来看就是,苹果要做VR是迟早的事,而且一直没有停止探索,按照苹果的惯例,仍然是等待时机成熟后,来收割市场。
同时我们也看到,苹果的做法与现有市场的一些相近性:
在多个专利里,苹果设计的场景都是VR设备和手机配合使用的。
召唤光场相机Lytro挖来员工,显然在技术上与MagicLeap有相似性,其核心技术就是基于视网膜投影的广场成像技术。
从微软挖人和收购的诸多公司来看,苹果是AR/VR两手都在抓,最先以那种形态推向市场,一定是根据市场的表现。