东南大学EGVSR: 基于GAN的实时超分系统 | 太惊艳!

AI算法与图像处理

共 3350字,需浏览 7分钟

 ·

2021-07-28 03:07

点击下方AI算法与图像处理”,一起进步!

重磅干货,第一时间送达

来源:新智元  arXiv 编辑:Priscilla

【导读】东南大学研究团队最新提出的4K实时处理超分辨率系统(EGVSR)不仅能够修复高糊画质,运行速度还比TecoGAN快9倍,代码已开源。


代码:https://github.com/Thmen/EGVSR


有没有试过辛辛苦苦拍了个视频,最后一看,竟然「真·一塌糊涂」?
 
问题不大!AI修复能力杠杠的!
 
而现在,一个能实时重建视频质量,处理速度还比主流方法快9倍的系统就摆在你眼前!
 
高糊视频有救啦!
 
 
没错!这就是东南大学研究团队最新提出的EGVSR——4K实时处理超分辨率系统!
 
 
兼顾图像质量和速度性能,EGVSR究竟是怎么做到的呢? 


什么是VSR?


视频超分辨率(VSR)是从图像超分辨率发展而来的,是计算机视觉领域的热门话题之一。

VSR技术可以重构视频,还原视频清晰度,提升主观视觉质量。
 
目前,我们常说的4K、8K这些高分辨率显示技术其实已经相对成熟,但无奈主流的视频源仍以1080P或720P为主,从源端就已经限制了视频系统的质量。
 
然而,在不久的将来,4K甚至更高的分辨率一定会取代全高清(FHD)成为主流格式。
 
因此,我们就需要有高效、轻量级的 VSR 技术,将大量低分辨率 (LR) 视频升级为高分辨率 (HR) 视频。
 
就像上面提到的,VSR技术的研究对象是视频资源的图像序列。
 
而图像序列就是连续的帧,由一系列静态图像组成。
 
当视频中的物体运动速度较快,在单个图像中表现为运动模糊效果,因此目标帧与其相邻帧之间会出现子像素位移。
 
 
因此,VSR系统使用有效的运动补偿算法对齐相邻帧至关重要。
 
这也是当前VSR研究领域其中一个「老大难」
 
此外,大规模VSR的计算十分复杂,内存消耗也大,严重阻碍了视频处理的实时性和低延迟性,难以在实际应用中部署。
 
为了解决这些问题,东南大学研究团队就为大规模VSR定制了各种网络加速策略,利用GAN来保证视频的重建质量,提出4K实时处理超分辨率系统(EGVSR)。


GAN:重建视频质量的工具

 
由于生成对抗网络(GAN)能够产生更好的感知质量,因此也广泛应用于超分辨率领域。
 
研究人员利用GAN强大的深度特征学习能力,来应对VSR任务中大规模的分辨率退化。
 
此外,参考TecoGAN方法的设计,引入了空间-时间对抗结构,能够让判别器理解学习时空信息的分布,从而避免传统GAN遇到的时域不稳定效应。
 
研究人员参考高效CNN搭建架构,设计出了一个更通用,质量更高的视频超分辨率网络,也就是EGVSR,这样就能满足高达4K分辨率的超分辨率大规模视频的需求。
 
EGVSR这个轻量级的网络结构,生成器部分分为FNet和SRNet,分别用于光流估计和视频帧超分辨率。
 
EGVSR生成器部分的框架和推理阶段的数据流
 
为设计出更加简化的EGVSR,研究团队提出了以下几种神经网络的加速技术。
 

快点,再快点!


批量归一化融合
 
批量归一化(BN)是深度学习领域中最常用的一种技术,它能够提高网络的泛化能力,防止过拟合。
 
因此,EGVSR中的FNet模块大量使用了BN层。
 
团队用1×1的卷积层来实现和替换BN层,再将1×1的卷积层与之前的卷积层融合,省去了BN层的计算,得到优化的BN融合层提速了5%左右。
 
 
高效的上采样方法
 
在超分辨率网络中,上采样层(Upsampling layer)是最重要的部分之一。
 
根据技术路线的不同,大致可以分为两类:基于插值的上采样方法(interpolation-based upsampling methods)和基于学习的上采样方法(learning-based upsampling methods)。
 
由于所有基于插值的上采样方法都会导致图像边缘模糊,而基于学习的上采样方法则具有强大的特征学习能力,团队选择了后者,具体方法包括:A)调整大小卷积(Resize Convolution);B)去卷积(Deconvolution);C)子像素卷积(Sub-pixel convolution)。
 
研究团队将ESPCN网络作为超分辨率网络的骨干,只改变上采样层,用上述提到的三种上采样方法训练了多组SRNet,结果显示,子像素卷积方法得出的效果最佳。
 

提高计算效率 

卷积计算是CNN的关键,占总计算量的90%以上,耗费了大量的计算时间。
 
而传统的朴素卷积(naïve convolution)使用了6个循环结构,计算效率也是相当低。
 
因此,为了提高计算效率,团队使用矩阵乘法(MatMul)算法进行改进。
 
经过实验,研究团队发现,通过逆向col2im转换就可以得到所需的输出特征结果。
 
也就是说,将卷积计算转化为矩阵乘法,通过内存空间节省推理时间,就能提高计算效率。
 

实验结果

 

一顿操作猛如虎,最终运行速度如何呢?
 
来对比一下不同VSR网络在CPU和GPU上的运行速度:
 
 
由图可见,相比TecoGAN,仅使用CPU,EGVSR能提速8.25-9.05倍。
 
而在GPU的加速下,EGVSR的4K实时处理速度比TecoGAN高出7.92倍。
 
当然,不能只求快,还是要看看总的计算成本。
 
EGVSR总计算成本仅为VESPCN的29.57%,SOFVSR12.63%,FRVSR和TecoGAN的14.96%。
 
 
速度有了提高,计算成本也大大减少,那最重要的画质,是不是真的变高清了呢?
 
 
研究人员在VID4、TOS3和GVT72三个数据集上进行了测试实验。
 
实验数据显示,EGVSR的确比传统模型的性能更好,能够修复更多空间细节,视频看起来更加高清。
 
分数越低,越接近真实结果,画面就越流畅
 
团队在VSR领域中,提出了EGVSR方法,采用了各种优化技术,在保证提高视觉质量的前提下,将计算量降至最低,在硬件平台上,4K VSR得以实时实现。


作者介绍

 

 
研究团队共5人,Yanpeng Cao、Chengcheng Wang、Changjun Song和Yongming Tang均来自南京的东南大学的信息显示与可视化国际合作联合实验室。
 
其中一作Yanpeng Cao是东南大学在读研究生,研究领域为加密域图像处理和图像超分辨率等。
 
He Li则来自英国剑桥大学工程学院。


参考资料:

https://arxiv.org/abs/2107.05307


努力分享优质的计算机视觉相关内容,欢迎关注:

个人微信(如果没有备注不拉群!
请注明:地区+学校/企业+研究方向+昵称



下载1:何恺明顶会分享


AI算法与图像处理」公众号后台回复:何恺明,即可下载。总共有6份PDF,涉及 ResNet、Mask RCNN等经典工作的总结分析


下载2:终身受益的编程指南:Google编程风格指南


AI算法与图像处理」公众号后台回复:c++,即可下载。历经十年考验,最权威的编程规范!



下载3 CVPR2021

AI算法与图像处公众号后台回复:CVPR即可下载1467篇CVPR 2020论文 和 CVPR 2021 最新论文

点亮 ,告诉大家你也在看



浏览 110
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报