笔记|李宏毅老师机器学习课程,视频19卷积神经网络
《学习笔记》专栏·第22篇
文 | MLer
1145字 | 4分钟阅读
【数据科学与人工智能】开通了机器学习群,大家可以相互学习和交流。请扫描下方二维码,备注:姓名-ML,添加我为好友,诚邀你入群,一起进步。
感谢李宏毅老师的分享,他的课程帮助我更好地学习、理解和应用机器学习。李老师的网站:
http://speech.ee.ntu.edu.tw/~tlkagk/index.html。
这个学习笔记是根据李老师2017年秋季机器学习课程的视频和讲义做的记录和总结。因为这个视频是在Youtube上面,有些朋友可能无法观看,我把它搬运下来放在云盘上面,大家点击阅读原文,就可以直接在手机随时随地观看了。再次,感谢李老师的付出和贡献。
这门课,共有36个视频,每个视频播放的时间不一。我按着视频播放的顺序,观看,聆听和学习,并结合讲义,做学习笔记。我做学习笔记目的有三:
1 帮助自己学习和理解机器学习
2 记录机器学习的重要知识、方法、原理和思想
3 为传播机器学习做点事情
视频19:卷积神经网络
一、为什么CNN适合Image?
李老师说CNN,相对于DNN,全连接的网络,是一个更加简单的模型,它基于先验知识,去把原来全连接的layer里面的一些参数拿掉,就变成了CNN。为什么可以这样做?
洞察一:一个Pattern只需要观察一个小的区域,例如,识别鸟嘴。
洞察二:同样Pattern出现在不同区域时,可以用同一组参数来识别,即参数共享机制。
洞察三:对图像做子抽样,subsampling,不会影响图像识别。如下图:
同样Pattern出现在不同区域时,可以用同一组参数来识别,即参数共享机制。
基于这个三个洞察,CNN的整体架构,如下图:
卷积层对应于洞察一、二,而池化层对应于洞察三。
二、卷积层Convolution
李老师详细介绍了卷积层的计算和处理逻辑,以及与洞察一和二的关系,原始数据、卷积核、卷积运算、步长(stride=1)、Feature Map,卷积层与全连接的关系,这些知识,在卷积层里面会用到。更详细的内容,请观看视频。
思考题:
彩色图像如何做卷积运算?(请留言)
卷积层与全连接的关系
利用先验知识,用更少的参数来达成了学习的目的。
更少的参数,决定了更少的神经元个数和权重
三、池化层Max Pooling
池化层用于解决做洞察三的事情
四、全连接层
用于把最后输出的Feature Map拉直和拼接,构建一个DNN。
五、基于Keras实现CNN
李老师,以手写数字识别为例子,介绍了CNN架构,如何在Keras上做设计和实现。
六、CNN为什么可以学习?
李老师对CNN这个网络架构为什么能够学习做了深入浅出的解释,推荐观看视频。
同时,李老师分享了两个有趣的Deep现象,一个是Deep Dream,另一个是Deep Style。
七、CNN的广泛应用
CNN有着广泛地应用,尤其是在图像领域或者类似图像的领域。
李老师分享了这些应用实例。
1 围棋比赛,Playing Go
2 语音领域
3 文本领域
详细内容,请观看视频。
朋友们,在学习中有什么问题或者想法,请加入机器学习群,大家一起讨论,共同进步。
什么是数据挖掘?你怎么看。
每周一书
课程视频点击
↓↓↓