百度放大招啦!端侧AI模型部署秘诀轻松获取
Cocoa开发者社区
共 1119字,需浏览 3分钟
·
2021-05-09 04:02
如何在Jetson硬件上更好地部署AI模型?
不同于服务器上的硬件,端上硬件往往计算资源和内存资源比较有限,如何充分利用硬件资源,并实现快速推理,是衡量AI推理引擎的重要考量因素。
具体到Jetson硬件,往往需要结合英伟达的TensorRT加速库,才能够实现最高速的推理性能。
飞桨作为国内首个功能完备的深度学习平台,在端侧AI模型部署上,提供了一系列的产品,满足用户的不同场景的部署需求。
那么对于有集成功能要求的伙伴们,我们还有飞桨企业版BML全功能AI开发平台,在本次的系列课程中,也有针对BML开发部署实战的专场课程,从端侧部署难点入手,围绕垃圾分类这一实用项目,对模型边缘部署技术原理和部署详细流程进行深入讲解与实战演示,教你如何快速实现模型压缩及部署,打通模型训练到端部署开发全流程。
扫描下方二维码
立即报名加入技术交流群
“端侧AI部署月”精彩内容抢先看
评论