今年4月,Google推出了一个新的"多重搜索"功能,提供了一种同时使用文本和图像进行网络搜索的方法。今天,在Google的I/O开发者大会上,该公司宣布对该功能进行扩展,称为"Multisearch Near Me"。这项新功能将于2022年晚些时候推出,将允许Google应用程序用户将图片或屏幕截图与"在我附近"的文字结合起来,以引导到当地零售商或餐馆的选项,这些零售商或餐馆将有你正在搜索的服装、家居用品或食品。
Google还预先宣布了一个即将推出的多重搜索功能,似乎是为AR眼镜设计的,它可以根据用户目前通过智能手机相机的取景器"看到"的东西,在一个场景中直观地搜索多个物体。
有了新的"在我附近"多搜索查询,用户将能够找到与你当前的视觉和基于文本的搜索组合有关的本地选项。例如,如果正在进行一个DIY项目,遇到一个需要更换的零件,就可以用手机的摄像头拍下这个零件的照片来识别它,然后借助这些信息找到一个有库存的当地五金店。Google解释说,这与多重搜索的工作方式并没有什么不同--只是增加了本地组件而已。
最初,多重搜索的想法是允许用户对他们面前的物体提出问题,并通过颜色、品牌或其他视觉属性来完善这些结果。今天,这项功能在购物搜索中的效果最好,因为它允许用户以一种标准的基于文本的网络搜索有时可能难以做到的方式缩小产品搜索范围。例如,用户可以拍下一双运动鞋的照片,然后添加文字要求看到蓝色的运动鞋,这样就可以看到指定颜色的那些鞋。他们也可以选择访问运动鞋的网站并立即购买。现在扩展到包括"在我附近"的选项,只是进一步限制了结果,以便将用户指向有该产品的当地零售商。
在帮助用户寻找当地餐馆方面,该功能的工作原理与此类似。在这种情况下,用户可以根据他们在美食博客或网络上其他地方找到的照片进行搜索,以了解这道菜是什么,以及哪些当地餐馆的菜单上可能有这个选项,可以堂食、提货或送货。在这里,Google搜索将图片与正在寻找附近的餐馆的意图结合起来,并将扫描数百万张图片、评论和社区贡献给Google地图,以找到当地的餐馆。
Google表示,新的"我附近"功能将在全球范围内提供英语服务,并将随着时间的推移推广到更多语言。
多重搜索中更有趣的新增功能是在一个场景中进行搜索的能力。Google表示,在未来,用户将能够将他们的相机平移到周围,以了解该更广泛场景中的多个对象,这项功能甚至可以用来扫描书店的书架,然后在用户面前展示哪个可能对他更有用。
"为了使之成为可能,我们不仅汇集了计算机视觉、自然语言理解,而且还将其与网络和设备上的技术知识结合起来,"Google搜索高级总监尼克-贝尔指出。"他指出:"因此,这种可能性和能力将是巨大而显著的。
该公司通过发布Google眼镜提前进入了AR市场,但没有确认它有任何一种新的AR眼镜类型的设备正在开发中,但暗示了这种可能性。现在有了人工智能系统,今天可能发生的事情--以及未来几年可能发生的事情--只是一种解锁了许多机会。除了语音搜索、桌面和移动搜索之外,该公司认为视觉搜索也将成为未来的一个重要部分。
"现在每个月在Google上用Lens进行的视觉搜索有80亿次,这个数字是一年前的三倍,我们肯定从人们那里看到的是,人们对视觉搜索的胃口和愿望是存在的。"他说:"我们现在要做的是深入到使用案例中去,并确定这在哪些方面最有用。我认为,当我们考虑搜索的未来时,视觉搜索肯定是其中的一个关键部分。"
据报道,该公司正在进行一个秘密项目,代号为Project Iris,以设计一个新的AR头显,预计发布日期为2024年。很容易想象,不仅这种场景扫描能力可以在这样的设备上运行,而且任何一种图像加文字(或语音)的搜索功能也可以在AR头显上使用。想象一下,例如,再次看到你喜欢的那双运动鞋,然后让设备导航到最近的商店,你就可以购买了。
Google搜索高级副总裁Prabhakar Raghavan在GoogleI/O大会上发言说:"展望未来,这项技术可以超越日常需求,帮助解决社会挑战,比如支持保护主义者识别需要保护的植物物种,或者帮助救灾人员在需要的时候快速寻找捐助。"
不幸的是,Google没有提供一个时间表,说明它预计何时将场景扫描功能投入用户手中,因为该功能仍在"开发中"。