为什么你的显卡利用率总是0%?

极市平台

共 2806字,需浏览 6分钟

 ·

2021-08-01 03:31

↑ 点击蓝字 关注极市平台

作者丨派派星
来源丨CVHub
编辑丨极市平台

极市导读

 

本文通过提高数据读取、预处理速度,以便让GPU保持99%算力。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

为啥GPU利用率总是这么低

榨干GPU的显存,使模型成功跑起来已有多种教程。但是,又一个问题来了,GPU的利用率总是一会99%,一会10%,就不能一直99%榨干算力?导致算力不能够完全利用的原因是数据处理的速度没有跟上网络的训练速度。因此,我们的抓手在于提高数据的读取、预处理速度。

定位问题

首先,我们得先判断到底是不是数据读取、预处理阶段是整个pipeline的瓶颈,不然岂不是优化了个寂寞。

pycharm run/profile 分析瓶颈

通过pycharm的run/profile xxx,我们可以看到程序执行的调用图,并且可以显示每个步骤的耗时以及其占比。通过这个工具,我们可以分析在整套训练代码中时间的瓶颈,因此也能够更加准确的定位程序运行慢的症结所在。下图为profile收集一个epoch结果之后所产生的调用图。

profile生成的程序调用链

我们可以看到,读取数据的这部分为黄色,说明数据读取部分是整个训练pipeline的瓶颈,因此我们便可以针对性的优化。

提高数据读取速度

数据读取速度慢主要是两个方面的问题:1.数据在机械硬盘中不是连续存储的,因此多个小文件的读取会浪费很多时间在寻道上;2.机械硬盘的物理特性决定其读取速度的上限。

打包数据

https://github.com/Lyken17/Efficient-PyTorch#data-loader

假如我们训练的图片都是比较小,但是数量比较多的情况下,我们可以采取将数据打包成一个大的文件,比如hdf5/pth等格式。这种方式主要是降低了机械硬盘的寻道时间还有OS开启/关闭文件描述符的时间。实现的方法可以参考上述repo。

把数据放到内存上

相比于机械硬盘来说,内存的速度可是快了几个量级,基本上可以说读取无延迟。因此,如果内存够大的话,的确可以先把数据全部都挂载在内存上,然后训练的时候直接从内存读取。

sudo mount tmpfs /path/to/your/data -t tmpfs -o size=30G

mount用于挂载Linux系统外的文件,tmpfs即temporary file system。许多软件为了提高一些常用的数据的读取速度,会把这些数据长期驻留在内存中以保持一个较快读写速度。后面的路径则是指明需要挂载对数据的路径,-o则是tmpfs动态大小的上限。需要注意的是,由于虚拟内存的存在(在linux为swap空间),数据并不一定都会放在物理内存中。因此我们挂载的数据也可能会因为太久没有使用而被置换到机械硬盘中。并且,由于再逻辑上这些数据是存储在内存中,因此断电之后这些数据都会会清空。

加钱

都2021年了,现在SATA接口的SSD价格早已跌破0.5元1G了,建议可以换个大容量的SSD,提高工作效率。手头比较宽松的小伙伴/实验室也可以考虑一下NVMe协议的固态,速度直接起飞。

提高数据读取/预处理速度

选择opencv而不是PIL读取数据

https://www.kaggle.com/yukia18/opencv-vs-pil-speed-comparisons-for-pytorch-user

上面链接的作者在20579张图片中对opencv和PIL的图片读取、Resize、ToTensor等方法进行了对比。结论是:大部分情况下,opencv的速度都要优于PIL。下面展示不同项目的结果对比。

两个库在不同方法的速度对比

prefetch

预读就是在GPU还在训练一个batch的同时,CPU也没有闲着,赶紧把数据读到内存中并进行数据预处理。在Pytorch1.7以前,一般使用Nvidia的apex库来进行prefetch。但是有个问题就是可能会存在内存泄漏的问题,具体原因可以参考https://github.com/NVIDIA/apex/issues/439。而在Pytorch1.7版本之后,torch.utils.data里面的DataLoader中就能够通过prefetch_factor属性来决定每个每个 worker提前加载的sample数量。

DALI出奇迹

DALI框架工作Pipeline

为了解决数据读取和预处理速度的问题,Nvidia推出了Data Loading Library[1],包含了诸如数据加载、解码、裁剪、resize还有许多数据增强功能。并且还能够将数据预处理阶段放到显卡上运行,进一步提高了数据增强的效率,目前已经可以轻松地被部署到TensorFlow,PyTorch,MXNet和PaddlePaddle框架。实测在使用Pytorch+DALI能够比原来的速度提高将近四倍![2]

References

[1]https://docs.nvidia.com/deeplearning/dali/user-guide/docs/
[2]https://zhuanlan.zhihu.com/p/105056158

如果觉得有用,就请分享到朋友圈吧!

△点击卡片关注极市平台,获取最新CV干货

公众号后台回复“ICCV2021”获取最新论文合集


极市干货
YOLO教程:一文读懂YOLO V5 与 YOLO V4大盘点|YOLO 系目标检测算法总览
实操教程:PyTorch vs LibTorch:网络推理速度谁更快?只用两行代码,我让Transformer推理加速了50倍
算法技巧(trick):深度学习训练tricks总结(有实验支撑)深度强化学习调参Tricks合集



CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~



觉得有用麻烦给个在看啦~  
浏览 84
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报