ITBear旗下自媒体矩阵:

一颗GPU如何带动人工智能发展?

   时间:2017-05-03 09:40:58 来源:中关村在线 作者:魏景芳 李仰润 编辑:星辉 发表评论无障碍通道

为什么一家显卡公司忽然在人工智能领域有了巨大影响力?一家图形解决方案的供应商与人工智能行业又能有多少瓜葛?

一颗GPU如何带动人工智能发展?

◆ GPU对深度学习的助推力

到今天,人工智能研究已经有六十多年的时间。从最简单的文字对话,到电脑程序战胜人类国际象棋大师,人工智能在竖立了一个里程碑之后似乎就进入了平台期,再无标志性的成绩出现。然而最近两三年,计算机的智能水平突然得到了明显提升:识别图片和语音正确率超过人类,自动驾驶汽车开始上路,参加智力问答竞赛获得冠军,甚至曾经被认为无法战胜人类的围棋领域,人工智能也成绩斐然。这些成绩的背后,都离不开一种叫深度学习的算法,而运行这种算法的硬件平台,大多都在使用NVIDIA生产的GPU。

NVIDIA中国区总裁张建中在接受中关村在线视频专访时表示,这一两年机器的智能水平突然提升得益于三个因素。第一,大数据;第二,深度学习的算法;第三,强大的计算内容。这三个因素综合在一起,在人工智能的研究领域产生很大的突破,图形图像和语音的识别准确度都大幅度提升。

一颗GPU如何带动人工智能发展?

NVIDIA中国区总裁张建中

GPU强大的并行运算能力缓解了深度学习算法的训练瓶颈,从而释放了人工智能的全新潜力,也让NVIDIA顺利成为人工智能平台方案供应商。然而深度学习带来的飞跃是否会很快进入平台期,人工智能研究和应用会有新的热点吗?

在张建中看来,人工智能由于算法的原因,永远达不到百分之百的精准度,因此永远都有提升的机会。“通过不停的迭代提升精度和准确度,越往后难度越高,需要的计算量、数据量、算法模型和深度学习的层次更高,这些都会随着我们工作当中不停的积累和提升,这是一个良性循环的过程。”

至少在现阶段,我们看到深度学习算法在人工智能应用领域还有很大潜力。在以往的研究中,一个特定的应用在面对海量数据时,可能需要几个月甚至几年的时间才能完成训练,这显然不能满足实际应用的要求。以NVIDIA GPU为代表的并行处理技术进入人工智能领域,则极大缓解了计算层面的瓶颈,让深度学习成为实用的算法。

◆ 超前的架构设计为AI兴起奠定基础

在计算机图形解决方案领域,NVIDIA早已占据领导地位,而现在它在人工智能领域也同样重要。在图形应用中,GPU里专门设计的多个计算单元可以高速完成复杂的图形学计算,瞬间渲染出清晰逼真的图像。但是在NVIDIA看来,GPU不仅能处理图形,还有潜力完成更多应用领域的数据处理,实现新的算法优化。可以说NVIDIA早在二十年前就已经为今天的人工智能浪潮埋下了伏笔。

NVIDIA中国区总裁张建中在采访中透露,NVIDIA在做CUDA架构的时候就预测到超级计算机极大的潜力。“为了让GPU可以百分之百的编程,我们就调整了CUDA架构,每一个处理器并行在一起,从几百个做到几千个,成为今天超级计算机的核心根本。全新架构能够让超级计算机运算更快,在很小的功耗上发挥最大的计算能力。”目前GPU在超级计算机行业有相当大的应用,我国的天河1号就是采用NVIDIA的GPU做大型数据处理。

一颗GPU如何带动人工智能发展?

NVIDIA的CUDA架构为GPU在深度学习领域铺路

GPU大规模并行计算架构恰好符合深度学习的需要,通过几年的研发和积累,GPU已经成为超级计算机的重要支撑,极大的提升了机器学习的运算能力。人工智能的并行算法在过去可能需要一两年的时间才能看到结果,在GPU的强大计算能力的支持下,深度学习的算法得以突破,可以在短时间内高效能的得到数据结果。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version