ECCV 引用量最高的10篇论文!SSD登顶!何恺明ResNet改进版位居第二

小白学视觉

共 3705字,需浏览 8分钟

 ·

2020-08-06 14:45


点击上方小白学视觉”,选择加"星标"或“置顶

重磅干货,第一时间送达

前言


前两天,Amusi 整理了CVPR 和 ICCV 引用量最高的10篇论文,分别详见:


众所周知,CV领域的三大顶会就是:CVPR、ICCVECCV在谷歌发布的2020年的学术指标(Scholar Metrics)榜单,ECCV 位列总榜第58位,是计算机视觉领域排名第三的大会!这个排名是依据过去五年发表研究的数据(覆盖2015-2019年发表的文章),并包括截止2020年6月在谷歌学术中被索引的所有文章的引用量。


本文就来盘点ECCV 2015-2019年引用量最高的10篇论文。根据此数据,一方面能看出这段深度学习黄金时期的研究热点,另一方面查漏补缺,看看这些必看的Top级论文是不是都掌握了。


注1:2015年之前的论文不在统计范围内

注2:引用量是根据谷歌给出的数据,会有波动,但影响不大


第一名:SSD


SSD: Single Shot MultiBox Detector

作者单位:UNC, Zoox, 谷歌, 密歇根大学

作者团队:Wei LiuDragomir AnguelovDumitru Erhan等


引用量:9097

论文链接(收录于ECCV 2016)

https://arxiv.org/abs/1512.02325


其实没什么好说的,深度学习时代,目标检测必看论文之一!当初和YOLO直接制霸实时性目标检测。


SSD Framework


SSD and YOLO



第二名:Identity Mappings in Deep Residual Networks


Identity Mappings in Deep Residual Networks

作者单位:Microsoft Research

作者团队:Kaiming He(何恺明)Xiangyu ZhangShaoqing RenJian Sun等


引用量:3778

论文链接(收录于ECCV 2016)

https://arxiv.org/abs/1603.05027


本文是继ResNet(CVPR 2016)的第二篇文章,对ResNet为何能够有效的原因进行进一步的分析并且对原始模型结构进行调整,提出性能更强的网络结构,如下图所示:





第三名:Perceptual Losses for Real-Time Style Transfer and Super-Resolution


Perceptual Losses for Real-Time Style Transfer and Super-Resolution

作者单位:斯坦福大学

作者团队:Justin JohnsonAlexandre AlahiLi Fei-Fei(李飞飞)等


引用量:3317

论文链接(收录于ECCV 2016)

https://arxiv.org/abs/1603.08155


本文提出采用感知损失函数训练前馈网络进行图像转换的任务,如成功应用于风格迁移和超分辨率任务。


System overview



第四名:XNOR-Net


XNOR-Net: ImageNet Classification Using Binary Convolutional Neural Networks


作者单位:华盛顿大学

作者团队:Mohammad RastegariVicente OrdonezJoseph Redmon等

注:作者中惊现YOLO之父 Joseph Redmon(之前看论文时,都没注意到)


引用量:2203

论文链接(收录于ECCV 2016)

https://arxiv.org/abs/1603.05279


XNOR 使用位运算和异或运算替换了加减运算,实现了速度的大幅提升。


说句题外话,感觉模型压缩里的几个细分方向中,剪枝的论文比二值(化)的论文要多很多。


Binary-Weight-Networks 和

XNOR-Networks



第五名:Stacked Hourglass Networks


Stacked Hourglass Networks for Human Pose Estimation


者单位:密歇根大学

作者团队:Alejandro NewellKaiyu YangJia Deng


引用量:1825

论文链接(收录于ECCV 2016)

https://arxiv.org/abs/1603.06937


本文提出了知名的 Stacked Hourglass Networks(堆叠沙漏网络),其在人体关键点检测任务上表现很好。同时拿下MPII 2016冠军!



Single “hourglass” module



第六名:DeepLabv3+


Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation


者单位:谷歌

作者团队:Liang-Chieh ChenYukun ZhuGeorge PapandreouFlorian SchroffHartwig Adam


引用量:1782

论文链接(收录于ECCV 2018)

https://arxiv.org/abs/1802.02611


DeepLab系列 在语义分割中的重要性应该相当于R-CNN系列在目标检测中的重要性,而这篇DeepLabv3+ 也正是目前该系列的最终篇。技巧很多,如将depthwise separable convolution应用于ASPP中,最终性能超级强。


DeepLabv3+



第七名:Center Loss


A Discriminative Feature Learning Approach for Deep Face Recognition


者单位:中国科学院深圳先进技术研究院&港中文

作者团队:Yandong Wen , Kaipeng Zhang, Zhifeng Li, Yu Qiao


引用量:1540

论文链接(收录于ECCV 2016)

https://kpzhang93.github.io/papers/eccv2016.pdf


本文提出center loss 让softmax 能够训练出更有内聚性的特征。核心目标还是为了增加类间距离,减小类内距离。




第八名:TSN


Temporal Segment Networks: Towards Good Practices for Deep Action Recognition


者单位:ETH Zurich&港中文&中国科学院深圳先进技术研究院

作者团队:Limin Wang(王利民), Yuanjun Xiong, Zhe Wang, Yu Qiao, Dahua Lin, Xiaoou Tang, and Luc Van Gool


引用量:1465

论文链接(收录于ECCV 2016)

https://arxiv.org/abs/1608.00859


TSN 是行为/动作识别、视频理解方向必读的论文之一!基于TSN 还夺得了 ActivityNet challenge 2016 冠军,其期刊版论文也收录于TPAMI 2018。


TSN



第九名:SiamFC


Fully-Convolutional Siamese Networks for Object Tracking


者单位:牛津大学

作者团队:Luca Bertinetto, Jack Valmadre, Jo˜ao F. Henriques等


引用量:1326

论文链接(收录于ECCV 2016)

https://arxiv.org/abs/1606.09549


SiamFC 深度学习时代目标跟踪方向的开山之作!引领了一系列孪生网络,比如后面的SiamRPNSiamFC++SiamRPN++、SiamMask等。


SiamFC



第十名:Colorful Image Colorization


Colorful Image Colorization


单位:加州大学伯克利分校

作者团队:Richard Zhang, Phillip Isola, Alexei A. Efros


引用量:1090

论文链接(收录于ECCV 2016)

https://arxiv.org/abs/1603.08511


对灰度图进行自动着色


Network Architecture



侃侃

1. DeepLabv3+是唯一一篇收录于ECCV 2018的论文,其他均是2016;

2. 谷歌、密歇根大学、中国科学院深圳先进技术研究院和香港中文大学均有两篇论文入围;


浏览 79
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报