百度放大招啦!端侧AI模型部署秘诀轻松获取

Cocoa开发者社区

共 1119字,需浏览 3分钟

 ·

2021-05-09 04:02

如何在Jetson硬件上更好地部署AI模型?


AI应用的部署正逐渐从服务器端走向移动终和边缘端,覆盖了包括安防、交通、医疗、巡检等等多个行业。服务器上的部署,往往需要通过网络连接来传输数据,因而带来了更大的网络延时。让AI模型在本地硬件上执行推理,不仅可以降低因网络延时带来的问题,而且还能够让用户的数据保存在本地,避免了数据隐私相关的问题。

英伟达的Jetson系列硬件,依托GPU算力,是专门为端上部署而推出的硬件,在市场上实现了广泛的应用。该产品包括Jetson Nano,TX2,Xavier,NX多个系列,满足了端上部署对算力的各种需求。


不同于服务器上的硬件,端上硬件往往计算资源和内存资源比较有限,如何充分利用硬件资源,并实现快速推理,是衡量AI推理引擎的重要考量因素。

具体到Jetson硬件,往往需要结合英伟达的TensorRT加速库,才能够实现最高速的推理性能。


飞桨作为国内首个功能完备的深度学习平台,在端侧AI模型部署上,提供了一系列的产品,满足用户的不同场景的部署需求。


对于英伟达的Jetson硬件,飞桨的原生推理库Paddle Inference能够无缝对接飞桨框架,支持飞桨的开发套件,实现对模型的即训即用,而且还能够结合TensorRT,实现对硬件算力的充分利用。同时,在端侧还可以结合模型压缩工具PaddleSlim,利用量化训练、剪枝、蒸馏等方法,实现模型的性能进一步加速。

我们还会分享内存优化,预测库裁减等秘诀,教大家如何有效利用有限的端侧计算资源。除此之外,我们还会为大家讲解如何通过Paddle Inference + Jeston实现Paddle各种开发套件SOTA模型的部署。


那么对于有集成功能要求的伙伴们,我们还有飞桨企业版BML全功能AI开发平台,在本次的系列课程中,也有针对BML开发部署实战的专场课程,从端侧部署难点入手,围绕垃圾分类这一实用项目,对模型边缘部署技术原理和部署详细流程进行深入讲解与实战演示,教你如何快速实现模型压缩及部署,打通模型训练到端部署开发全流程。


扫描下方二维码

立即报名加入技术交流群



“端侧AI部署月”精彩内容抢先看



飞桨继四月推出的“服务器端AI部署月” 大获好评之后,五月份还将继续推出“端侧AI部署月”系列线上直播活动。在这个系列直播课中,我们将为大家详细讲解如何在各种端侧的场景实现AI部署,课程干货满满,敬请期待呦!


浏览 54
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报