ITBear旗下自媒体矩阵:

百度AI快车道飞桨Paddle Lite专场来上海了!全面解析端侧落地秘密武器

   时间:2019-11-27 21:10:45 来源:互联网编辑:星辉 发表评论无障碍通道

如今移动设备上的AI功能越来越普及,即使“小白”也能通过强大的修图软件抠图修图,化身成“技术大神”;看中了某款包包鞋子,不用费心去搜牌子货号,通过图片搜索就能在某宝快速找到它;迷失在街头不知何去何从时,也可以用地图的实景导航迅速找到方向……生活中种种便利的背后,是让AI能力快速部署到硬件设备的秘密武器——端侧推理引擎,在发挥着至关重要的作用。

百度飞桨Paddle Lite能够提供一套功能完整、易用、高性能面向终端和边缘设备的端侧推理引擎,方便广大开发者将应用部署到任何端侧设备之上。12月8日,百度AI快车道将在上海为广大开发者带来一场“干货满满”的Paddle Lite专场。

此次专场将由百度多位技术大咖主讲,详细解读Paddle Lite的技术特点、使用方法和相关应用,同时也会通过实践,实现目标检测在手机上的部署,完整体验Paddle Lite在实际业务中的应用。

活动主题:

Paddle Lite

课程时间&地点:

2019年12月8日 13:00-17:05 上海·百度上海研发中心

课程安排:

  • 13:00-13:30 签到、现场交流
  • 13:30–13:45 百度深度学习平台-飞桨全景介绍
  • 13:45–14:45 Paddle Lite深度学习技术解读及应用
  • 14:45–15:05 EasyEdge百度端计算模型生成平台简介
  • 15:05–16:05 基于Paddle Lite的移动端目标检测部署实践
  • 16:05–17:05 基于Paddle Lite的EdgeBoard边缘AI部署实战

报名方式:

关注微信公众号“飞桨PaddlePaddle”回复“AI快车道”,便可获取报名链接。

无法到达现场的开发者们,可以进入“IT大咖说”网站后搜索“AI快车道”,收看活动直播,获取往期活动视频回放。

关于Paddle Lite:

Paddle Lite是飞桨产品栈中用于端侧高性能轻量化AI应用部署的推理引擎,核心用途是将训练出的模型在不同硬件平台场景下快速部署,根据输入数据,执行预测推理得到计算结果,支持实际的业务应用。

今年8月,飞浆对外发布Paddle Lite Beta版,经过两个多月的迭代与发展,“Wave Summit+”2019深度学习开发者峰会上Paddle Lite2.0正式发布,Paddle Lite自Beta版发布以来,在如下核心功能上进行升级:

  • 多框架支持:原生支持飞桨的模型,同时通过X2Paddle工具,提供对TensorFlow,PyTorch和ONNX模型格式的更充分的支持;
  • 多硬件支持:除了ARM CPU、移动端GPU、华为NPU,新增支持Nvidia GPU和X86 CPU;
  • 更好的性能:更新benchmark,提升了在ARM CPU上尤其是int8的性能;
  • 更加完备的功能:支持python API,优化编译流程,新增预测库极致裁剪等功能;
  • 更加完善的文档和demo:提供完善的文档和多平台的demo,包括安卓、iOS和树莓派等。

关于AI快车道:

百度 AI 快车道企业深度学习实战营是百度依托自身深厚的深度学习技术实践经验,面向有 AI 技术需求企业的算法工程师、架构师群体提供的快速应用扶持计划。

计划的学习内容囊括了10套工程实施与深度学习技术落地结合的详细方案,覆盖百度领先的AI技术和业务应用场景的深入剖析,如OCR、精密仪器质检、推荐排序经典场景、遥感图像处理等;源于百度业务实践的深度学习平台飞桨的性能优势、模型优势、生态优势的解读;百度自研和顶级学术会议魁首算法、预训练模型的详细介绍,还有与案例和算法紧密相扣的在线实验,并以“短平快”的课程,进行业务问题定位、框架及算法的快速应用培训,为更多企业带去深度学习技术和经验分享。

 

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  网站留言  |  RSS订阅  |  违规举报  |  开放转载  |  滚动资讯  |  English Version