【深度学习】实验室一块GPU都没有怎么做深度学习?
共 3880字,需浏览 8分钟
·
2023-06-20 09:52
没错,一块GPU都没有,今年突然新研一的学生都要搞深度学习了,老师还催着有想法实现一下,硬件都没有如何实现呢?
比较早入坑,16 年用 MatConvNet 复现了一下 ResNet zhanghang1989/ResNet-Matconvnet,然后用 ResNet 提了下 feature,比较容易水 paper。在 NVIDIA 实习的时候,听说可以自己写 proposal 向 NVIDIA 申请免费的 GPU,之后就每年都申请一块,直到毕业 (链接:GPU Grant Application)。在发了几篇 deep learning 的 paper 之后,我老板也开始换方向了,而且给组里的学弟们买了8卡的GPU Server(当时是我毕业前帮老板挑的机器,可惜自己没有用到)。
很难想象,当初如果自己没有自费买 GPU,现在我会在哪里,在做什么。如果客观条件不好,尽量想办法克服一下,机会要好好把握
https://www.zhihu.com/question/299434830/answer/1138597471
我自己实验室是一点点积累买GPU的,拿不到国家课题就做企业课题,然后用来给学生买GPU,电脑,内存,磁盘,保证本科+研究生20多人的计算能力。AI计算的话:一台双卡2080ti主力计算工作站,4台2080或者2070S的GPU,研究生人均一台,本科一个团队一台。平常跑不满,如果有外面合作的学生也会借给他们用,如果有交集,可以科研论文合作。
下一步打算:对合作型联合的热爱科研的学生,如果自己导师没有出论文经费的我会帮他们出。当然条件也是要求:他除了要完成自己的论文也要多做些工作,如果愿意的话,支持下学生也没问题。如果有这方面需求愿意合作,可以私信我。
https://www.zhihu.com/question/299434830/answer/1138460434
建议研究一些可解释性的相关问题。
大家都是从滤波器的角度解释卷积核,那么怎么能知道是否说的是对的呢?是不是可以取100张猫和100张狗,模型设置为一层feature map为10的3*3卷积+全局pool,训练到过拟合。看看哪几个维度会预测到猫,哪几个维度会预测到狗,再看看这10个卷积核长什么样,分析一下原图过了这些卷积核到底获得了什么特征。
再比如,CNN在经过图像旋转、平移、放缩等增强方法之后是可以具有相应的不变性的。那么它到底是怎么获得这种不变性的呢?是利用不同的feature map映射到最后输出向量中不同的维度,还是最后会映射到相同维度呢?
再进一步,行人重识别任务中有很多用度量学习的方法,两张差异很大的图片过同一个模型可以得到比较近似的向量,那么这些模型是怎么获取特征并怎么映射的呢?
这些问题其实是我一直思考没想出答案,但也没去做实验的。因为我有GPU,平时搭模型、调参的工作做多了,就没有太大动力去研究这些有意思的问题了。
https://www.zhihu.com/question/299434830/answer/1231487151
一开始有4块1080,和师兄们一起用,当时刚开始入门,也就跑下 cs231n 和当时还是caffe 版本的 R-CNN,电脑系统太老了caffe总是出问题,也在网上用过服务器(国内付费的,谷歌云的300美金,Colab 等),也就随便跑了跑。后来随着 detectron 等的开源,发现 1080 显存太小了,而且速度太慢,只能跑 VOC,跑 COCO 不太现实,一度很奔溃,想着是不是要换个方向。
以后对老师软磨硬泡,加了台 双2080ti 的机器,终于可以跑 COCO 了,虽然训练时间还是略长,不过已经在接受范围内了。
后来机缘巧合下发现了些免费的平台(百度 AIStudio等),第一次用到 V100 ,爽过吸大麻。多注册了几个账户,终于不在担心算力的问题,就这样开始了升级打怪之路,跑跑论文代码,打打比赛,好多任务都可以并行展开了,这时候就相当舒服了,没有了算力的约束,成长起来也是很快的。假如没有了这些免费平台,怕不是要在入门的地方原地踏步了。
其实缺少算力还可以去企业实习,不过如果基本的 1080ti 都用不上,大概门都入不了,公司估计也进不去。所以还是最开始的话,尽早联合你同届同学说服老师买卡,不然还是乘早弃坑。自己学(无人指导) + 没卡 = 天坑 ️,切记!
https://www.zhihu.com/question/299434830/answer/1016932439
然后心一横 我就用我的四核8GBMacBook慢慢跑吧 train一次一天 validate 6个小时,我就这样坚持了一个月把作业写完了。
https://www.zhihu.com/question/299434830/answer/1071679101
2、然后利用好你自己的时间: 貌似现在道听途说一般的结论是GPU比CPU提速10倍左右。大家想想,训练一个模型,本来要CPU跑10个小时,结果买了GPU只用1一个小时,但是节约来的9个小时里面一半浪费在了看知乎上(说你呢!),另一半浪费在了刷微信上。本屌最近跑些NLP方面的东西,东西不是特别大,Ubuntu笔记本装了OpenMPI可以四个线程一起跑,也比单核CPU快一倍左右,基本上白天先把模型设置好,跑上3~4个Epoch看看效果,然后在晚上睡觉之前开始跑个20-30个循环,第二天早上怎么也都好了。
3、最后设计好数据结构: 另外其实数据预处理的好,用简便的方法存在内存里面,也是可以提升不少效率的。
作者:runner time
https://www.zhihu.com/question/299434830/answer/1099500820
不如买块游戏显卡打游戏去。
哦,其实游戏显卡也是可以搞深度学习的,图灵架构显卡的CUDA计算力高达7.0,只要1500元一块,你值得拥有!
往期精彩回顾
适合初学者入门人工智能的路线及资料下载 (图文+视频)机器学习入门系列下载 机器学习及深度学习笔记等资料打印 《统计学习方法》的代码复现专辑
机器学习交流qq群955171419,加入微信群请扫码