【ITBEAR科技资讯】10月22日消息,全息图像技术一直以来为医学成像、制造业、虚拟现实等领域提供了卓越的三维视觉效果,远超过了传统的二维图像。然而,传统全息技术的繁琐和高昂成本限制了其广泛应用。最近,日本千叶大学工程研究院的下馬智之教授领导的研究团队提出了一项基于深度学习的新方法,可从普通摄像机拍摄的二维彩色图像中直接生成三维场景和物体的全息图像。这一创新性研究已在《光学与激光工程》杂志上发表,研究团队中还包括石井佳之和伊藤智之两位成员。
据ITBEAR科技资讯了解,这项研究的动机在于解决全息显示领域的难题,包括三维数据获取、全息图像计算成本和全息图像与全息显示设备特性之间的转换。下馬教授表示:“我们进行这项研究是因为我们相信深度学习近年来发展迅速,有潜力解决这些问题。”
新方法利用三个深度神经网络(DNN)来转换普通二维彩色图像为可用于显示三维场景或物体的全息图像。第一个DNN将普通摄像机拍摄的彩色图像作为输入,然后预测相关的深度图,提供了图像三维结构的信息。第一个DNN生成的原始RGB图像和深度图都被第二个DNN用来生成全息图像。第三个DNN对第二个DNN生成的全息图像进行优化,以适应不同设备上的显示需求。
研究人员发现,这一方法不仅在数据处理和全息图像生成方面表现出色,还优于最先进的图形处理单元。下馬教授补充说:“我们方法的另一个优点是,最终生成的全息图像呈现出自然而真实的三维效果。此外,生成全息图像时无需深度信息,从而大幅降低了成本,无需使用RGB-D摄像机等三维成像设备。”
未来,这一方法有望在头戴式显示器领域找到广泛应用,为生成高保真的三维显示提供有力支持。此外,它还可能推动车载全息显示器的革新,以更直观的方式呈现行人、道路和标志等必要信息,为全息技术的推广和发展铺平道路。