原标题:谷歌在智能硬件上的野心,全都藏在这款产品里了
摘要:Google Clips 可穿戴相机其貌不扬,但却是 Google「硬件+软件+AI」策略下最具代表性的一款产品。
在前不久的「Made by Google」发布会上,Google 一口气带来了多款硬件新品,极客公园也在第一时间进行了报道。
其中两款新手机(Pixel 2/Pixel 2 XL)和两款新音箱(Google Home Mini/Max)获得了较高的关注度,智能耳机 Pixel Buds 因为提供了实时翻译的「黑科技」,也引发了不少讨论。
相比之下,另一款名为 Google Clips 的便携相机就被很多人忽略了。缺少漂亮的纸面参数(1200 万像素相片,15FPS 视频),同时不是大众「喜闻乐见」的硬件品类,Google Clips 没有什么存在感也是意料之中的。
但不要就此轻视了 Google Clips。在这次发布会上,Google 提出了「硬件+软件+AI」的产品战略。Google Clips 虽然其貌不扬,但可能是这个战略下最具代表性的一款产品。
可穿戴相机遇到的瓶颈
Google 官方对于 Google Clips 的描述是无线智能相机(Wireless Smart Camera),从形态上来说,可以把 Google Clips 划分到可穿戴相机(Wearable Camera)的范畴。
Google Clips,图片来自于 the Verge
实际上,可穿戴相机并已经不是什么新鲜的产物了。在 2015 年前后,市面上(尤其是众筹平台上)曾出现了一大批类似的产品。在 Google Clips 上,也可以看到一些早前产品的影子。
这类主打便携的产品往往没有配备屏幕,但拥有比运动相机还要小巧的体积,借助背夹、磁力等方式进行固定后,可以通过定时拍摄等功能来记录我们的日常生活。
Drift COMPASS
由于并非一个不可替代的产品,在功能上和手机、运动相机等拍摄器材存在较高的重叠度,可穿戴相机这个品类一直处于不温不火的状态。另一方面,更重要的原因在于,想要通过它们拍摄到满意的照片,并不是一件容易的事情。区别于手机、相机「所见即所得」拍摄体验,高频度的拍摄方式(例如延迟拍摄)是可穿戴相机更加典型的应用。
一年多以前我在体验一款国产厂商推出的可穿戴相机时,曾带着它出去旅游了几次。坦率地讲,硬件层面上我对它已经比较满意了——照片/视频的清晰度可以接受,小巧的体积夹在衣服上没有什么负担,延迟拍摄下续航可以达到一整天。最大的问题其实在于拍摄后如何选出自己喜爱的照片。
举例来说,如果把相机设置为每 30 秒拍一张照片,每小时就会产生 120 照片,一天下来内存卡里可能就有几千张照片了——如果没有工具的辅助,从海量照片里找到满意的照片就比较麻烦了。
最后我从几千张照片里只挑出几张满意的,而绝大部分都是「废片」。成片率非比较低,照片管理起来又麻烦,让我逐渐丧失了继续使用下去的热情。这不是一个个例,大多数可穿戴相机只解决了如何方便拍摄的问题,但是对于照片的筛选、存储和分享问题并没有足够的重视。
Google 想要用 AI 帮你拍照片
当然,也有厂商意识到了这个问题。为了提高相机的成片率,可穿戴相机领域出现了两种改进方式。一种是上传拍摄的照片到云端进行分析,后台自动去除重复照片,筛选出更出色的照片。可穿戴相机领域的明星产品,由瑞典初创公司推出的 Narrative Clip 2 就实现了类似的功能。
不过云端处理的问题在于增加了产品使用的复杂程度,而且也依赖于厂商在算法上的持续投入(这对于初创公司来说并不容易)。实际上,Narrative 已经于去年 9 月停止了产品的销售,未来将有偿为相机提供云服务(每月 2 美元)。
Narrative 的产品线
另一种则是让相机在「合适」的时间点拍摄,减少废片出现的概率。例如此前众筹平台 Kickstarter 上出现了一款名为 Benjamin Button 的产品,它可以在监测到环境变化时(声音、活动、人脸识别)自动开始拍摄(最新进展:Benjamin Button 已经取消了众筹)。
Google Clips 则更进一步,它会基于人脸识别(表情)、光线和取景效果等判断要素,自动选择要拍摄和保留的精彩瞬间,所有的一切都是自动完成的。根据 Google 官方介绍,随着使用次数越来越多,它还会变得更加智能。
图片来自于 the Verge
如果你使用过 Google Photo,应该领略过「智能助理」功能的强大,它会利用人脸识别进行分类,也能从视频中筛选出精彩的片段。某种意义上来说,Google Clips 就像是 Google Photo 的「实体版」。
今天(10 月 17 日)Google Photo 更新后支持宠物的精确识别,而 Google Clips 同样也可以实现这个功能,不过这一切都是在本地完成的。
Google Clips 使用了一颗 Movidius(已被英特尔收购)的 Myriad 2 视觉处理单元(VPU),和大疆的精灵 4 无人机上使用的是同一款芯片。正是这块 VPU 和加入,在硬件层面为 Google Clips 增加了机器学习的能力(Google 称之为 Moment IQ)。
比硬币还小的 Myriad 2
和云端方案相比,本地化的图像处理方案具有低功耗、低延时、离线使用等优势。Google Clips 减小了对网络的依赖,进而强化了它随时随地使用的特点。你要做的只是保证它的电量,打开开关,放在一个合适的位置,具体的拍摄就不需要费心了。虽然 Google Clips 依然提供了物理按键用于主动拍摄,但这就像 F-22 战斗机上的航炮一样,更多时候只为了「心理安全」的需要。
Movidius 团队的负责人 Remi El-Ouazzane 表示:「Google Clips 代表了当前板载人工智能(onboard intelligence)的最高水平,这也是我们开发出 Myriad VPU 后所期待出现的应用。」(http://t.im/1ge5y)
实际上,这已经不是 Google 第一次和 Movidius 合作了。早在 Movidius 被英特尔收购前,在 Google 研发 AR 项目 Project Tango 时就使用了 Movidius 的芯片。这次在消费级产品上搭载机器学习相关的硬件和技术,Google 使用 AI 重新改造了一个硬件品类。
目前通过在移动设备中增加深度学习专用的芯片,已经成为增加产品 AI 能力的一个重要手段(例如华为麒麟 970 和苹果 A11 Bionic 已经在 SoC 层面进行了设计)。Google Clips 一旦试水成功,未来 Google 集中在算法和数据上的优势为其他硬件品类赋能,将会直接和传统仅关注硬件+软件体验的产品拉开距离。
人与机器的控制权的交接
Google Clips 用户体验负责人 Eva Snee 向外媒 the Verge(http://t.im/1ge61)分享了一个典型的使用场景:
当他们一家人出去度假时,大人们在屋里聊天,孩子们在外面看书,他们前面摆着 Google Clips。尽管没有刻意去拍照,但 Google Clips 已经帮助她记录下了孩子们在一起的时光。
另外根据外媒的体验,Google Clips 会增加「熟脸」的拍摄频率,减少对于陌生人的拍摄,这进一步明确了它最佳应用场景就是在家庭生活中。
在技术上,Google Clips 已经和传统的可穿戴相机拉开了差距,但归根结底它仍然不是一个必需品。对于那些有孩子、宠物的家庭来说,Google Clips 或许会是一个不错的生活记录设备(Lifelog)。如果没有足够多值得记录的人或物,可供它施展的空间也就小了很多。
另外,由于设备比较小巧(60.5g),而且能够自动拍摄,Google Clips 引发的隐私问题也值得关注。Google Clips 发布后,Elon Musk 曾在 twitter 上进行了质疑,评论中也引发了广泛的讨论。
Google 官方表示,Google Clips 所有的数据都是在本地进行处理(16GB 存储空间),不会泄露隐私。但避免让它出现在「不合适」的场合,至少目前仍然依赖于每个 Google Clips 使用者的自律。
实际上,Google Clips 很难凭借一己之力去改变可穿戴相机不温不火的市场状况,考虑到它 249 美元的售价,或许也不会成为一个火爆的单品。
但如果把视角再拉远一些,这款设备实际上开启了一种全新的拍摄方式——以往我们拍照时,按下快门的时机依赖于拍摄者主观的判断,现在则把控制权完全教给机器,依赖于机器完全客观的判断。
在 AI 技术的推动下,人与机器控制权的交接在各行各业都在发生着。自动驾驶领域在进行方向盘的交接,智能家居是遥控器的交接,而 Google Clips 的背后其实是快门键的交接。AI 赋予硬件更多的控制权,在参数之上建立更高维度的竞争优势,将是未来智能硬件发展的一个趋势。从这个角度来看,Google Clips 也许才是真正意义上「智能相机」的起点。