在很多的影视剧作品中,我们都曾看到过这样的场景:案件调查人员通过技术手段,将摄像头捕捉的模糊图像放大,形成更为精细、清晰的图像,帮助识别嫌疑人。然而遗憾的是,现实中的技术还远达不到能够将低分辨率图像“收放自如”形成人眼能够识别的高清图像。
但谷歌(微博)近日公布的一项研究成果,则可能让上述那些只存在于影视剧作品中的“神奇”真正成为现实。谷歌人工智能研究部门谷歌大脑近日发布了一篇研究文章,再度展示了人工智能技术的强大功能,通过对深度神经网络技术的应用,可以将低分辨率的图像放大成高清晰度、精细化的人眼可识别图像。
该项研究具体是通过两个同时运行的神经网络来实现,一个被称为“条件网络”,另一个被称为“优先网络”。“条件网络”通过对低分辨率的图像和相似的高分辨率的图像进行比照,并描绘出粗略的框架。“优先网络”则用于分析图像中的像素点,并在低分辨率图像的基础上进行细部像素的细化。简单来说,两者是通过在宏观和微观上的结合,来实现最终结果的最优化。
在进行该项实验时,谷歌的研究人员运用了包含超过20万名人头像的CelebFaces Attributes Dataset数据集和超过300万图像的“卧室”照片数据集,通过这些大量的数据,不断训练模型,使其结果不断优化。
经过大量数据训练后的模型最终能够实现低分辨率图像的高清精细化还原,例如在上图中,将8×8分辨率的图像输入后,模型能够输出32×32的图像。可以看出模型绘制出的较高分辨率的图像与真实图像之间的差异从肉眼来看已经很难分辨,很大程度上实现了将低分辨率图像高精细化的目的。
作为实验效果测验的一部分,谷歌研究人员还将真实图像和模型绘制出的图像同时呈现给其他工作人员,让他们给出哪些是模型绘制图像,哪些是真实拍摄的图像的判断,测试结果是50%的参与者认为模型绘制出的图像已经很好地模拟了真实图像,以至于难以分辨这两者。
研究人员给出的实验结论是,在单独使用“条件网络”进行绘制图像时,效果不如在此基础上同时运用“优先网络”那么好,“优先网络”能够使得“条件网络”在无法准确预测局部细节时,进一步优化细节,产生更为精细的预测结果。
毫无疑问,这项技术在未来一定有着非常广泛的应用前景和实际价值,但需要指出的是,目前该技术依然处在非常初期的阶段,训练数据目前仅限于“人脸”和“卧室”图像,但这实际上也是“有监督学习”的人工智能研究目前普遍所需要面临的必经阶段,即任何实际的人工智能技术的应用,都要基于大量数据的训练和模型的不断优化。