我们都知道增强现实正在不断发展,投身于这一行业的巨头们都希望AR能够成功。谷歌为安卓阵营带来了ARCore,而苹果则为iOS用户提供了ARKit。这意味着AR开发者不再局限于Social Media应用,而更小的开发者都可以探索这一全新的技术。
1. 基础
AR增强现实是一种为现实世界创建虚拟覆盖的方式,你可以将虚拟对象叠加在现实世界之中。你可能会问,这怎么可能?AR主要是通过手机,平板电脑,或者是某种形式的头显和眼镜进行感知。然后,设备的摄像头或传感器将寻找可以放置AR对象的表面。
AR的一个例子是宜家的应用。这个工具允许将宜家家居虚拟呈现在家中,然后你就可以判断这到底适不适合自己。医学生已经开始通过AR来辅助手术学习,增强现实可以将患者的X光信息呈现在视场之中,从而帮助他们更好地掌握病人的情况。AR的潜在用例无穷无尽,而ARCore和ARKit为我们探索发现提供了相应的工具。下面映维网将与大家一起看看ARKit和ARCore的对比。
2. 谷歌ARCore
谷歌最初是于2014年开始涉足AR,他们当时的项目名为Project Tango。尽管Tango已经终止,但谷歌把他们从中学到的所有东西都用于构建ARCore。Tango需要专门的硬件才能运行,而ARCore是一个快速,高性能的安卓SDK,能够在数以千万计的兼容设备上实现高质量的增强现实。谷歌日前已经发布了ARCore的第二个预览版,可以支持更多的设备,并允许开发者在他们的应用程序中使用ARCore。
下面是ARCore构建AR环境的关键技术:
运动追踪:使设备理解并追踪其相对于世界的位置。
环境理解:允许设备检测水平表面(如地面或咖啡桌)的大小和位置。
光线预测(Light estimation):允许设备估计环境当前的照明条件。
支持:Android Studio,Unity,虚幻引擎,C,Web
ARCore从根本上做了两件事情:追踪设备的位置;建立自己对现实世界的理解。运动追踪主要使用手机来识别兴趣点,并且持续进行追踪。借助这些信息和其他软件,谷歌可以计算设备的方向和位置。
所有这一切使得你可以将任何虚拟对象放置在房间之中,比如说一个巨大的高达模型。当你离开房间并再次回来时,这个高大模型仍然会停留在同一个位置。这就是运动追踪的力量。
3. 苹果ARKit
ARKit伴随着iOS11正式出现在人们的设备上。苹果将ARKit定义为:
一个全新的框架,可允许你轻松为iPhone和iPad创建无与伦比的增强现实体验。通过将数字对象和信息与周围的环境相结合,ARKit使得应用程序不再局限于屏幕之内,它们将能够以全新的方式与现实世界交互。
与ARCore一样,ARKit在创建AR环境中涉及一系列的关键技术,而你将会发现ARKit和ARCore存在一定的相同点。
原深感摄像头:这只适用于最新iPhone X智能手机。借助这个工具,iPhone可以实现精准的面部识别,并且带来了一系列有趣的AR应用。摄像头现在可以精确识别用户的表情和面部特征,然后可以用来创建动画角色或实现有趣的自拍效果。
Visual Inertial Odometry(视觉惯性里程计):ARKit采用了VIO。这与谷歌的运动追踪类似,并且采用了摄像头和其他信息来精确地判断设备在现实世界的中的位置。
场景理解与光线预测:跟ARCore一样,ARKit将在现实世界中寻找平坦的表面和光线。它将把所有这一切应用到AR对象,从而确保正确的照明。
高性能硬件和渲染优化:ARKit支持A9,A10和A11处理器。这可以实现快速渲染和场景理解,并且提供一个流畅的体验。
支持:Metal、SceneKit,以及诸如Unity和Unreal这样的第三方工具。
4.未来
如你所见,这两个框架非常相似。他们使用相同的技术并争相成为最好的平台。这两个科技巨头都希望为用户提供最佳的AR平台,而这场竞赛将持续下去。我们相信,AR成为每部手机的基本功能只是时间问题。
开发者希望能够利用这两个框架来为世界呈现最精彩的AR内容。如果你也是一名开发者或内容创建者,映维网希望能够很快在App Store或Play Store中看到你的精彩作品。