ITBear旗下自媒体矩阵:

英特尔亮相“WAVE SUMMIT+”深度学习开发者秋季峰会 详解Intel处理器在百度飞桨中的应用

   时间:2019-11-11 09:01:17 来源:互联网编辑:星辉 发表评论无障碍通道

11月5日,“WAVE SUMMIT+”2019深度学习开发者秋季峰会在北京召开。本次峰会上,百度飞桨(PaddlePaddle)全新发布和重要升级21个产品方向,包括面向产业应用场景的四大端到端开发套件、融合数据和知识的预训练结合迁移学习的飞桨Master模式、端侧推理引擎Paddle Lite 2.0、EasyDL专业版、前沿技术工具组件等。作为本次活动的顶级赞助伙伴,英特尔的产品总监 Jordan Plawner 也出席了本次活动,并介绍了英特尔至强处理器和nervana处理器在飞桨中的应用。

随着人工智能技术的迅速发展,新一代的人工智能也需要新一代的执行软件和深度学习处理器。飞桨是一个源于产业实践,与产业共进的深度学习开源开放平台,集深度学习核心框架、基础模型库、端到端开发套件、工具组件和服务平台于一体,支持分布式训练、动态图和动态调整张量以进行有效的批处理,百度飞桨也是第一个支持英特尔专为AI打造的Xeon ISA。

Jordan Plawner介绍,百度飞桨集成了英特尔的开源nGraph编译器,可以为飞桨提供硬件后端,支持CPU RN50训练和预测,并在运行时使用环境变量FLAGS_use_ngraph = true调用nGraph。与基于MKLDNN的直接优化相比,ResNet50在CPU上的训练性能得到了显著改善。此外,英特尔nGraph编译引擎启用了Bert / Ernie模型,BERT / ERNIE模型训练所需的操作(通过N-graph的Intel nBert训练),对Intel Nervana NNP-T深度学习培训加速器的高级支持。

vbox8009_B50I8653_145106_small

百度飞桨支持英特尔nervana NNP-T DL加速器,支持快速的分布式训练。集成的Intel Aeon数据加载器,使用2-4个Xeon处理器实现最高吞吐量的图像增强,从而实现高性能的Nervana NNP-T服务器。从飞桨中的动态图形无缝桥接,以编译和缓存优化的NNP-T图形以获得最佳性能,流水线功能可确保NNP-T计算不断运行,而无需等待CPU的指令。将飞桨分布式框架与NNP-T通信库和芯片间链接相集成,以加速横向扩展。

Jordan Plawner还介绍了百度与英特尔联合打造的AI解决方案——增强AI解决方案,通过定制的英特尔至强可扩展处理器,可以更方便的进行跨平台体验,让人工智能技术助力企业发展并造福社会。该解决方案拥有全栈AI技术功能、高性能AI计算库指令集,以及贡献超过10000行代码。

vbox7254_1C7A6470_144639_small

百度深度学习技术平台部总监马艳军提到,在最新的英特尔至强处理器上,云端保证精度基本不变的情况下,通过INT8的量化训练,性能的提升能达到2到3倍。所以飞桨对于CPU的训练速度和分布式训练支持的功能也非常强大,可以真正在业务场景中使用。

此次峰会的全新发布,使得百度飞桨的易用性进一步提升、开发门槛进一步降低,面向产业应用的支持能力也进一步增强,而这背后也离不开英特尔这样的合作伙伴的支持。通过携手前进,飞桨正成为千万开发者把握AI时代的工业化大生产平台,加速产业智能化的核心动力。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version