CVPR 2022 | Restormer: 刷新多个low-level任务指标

极市平台

共 3719字,需浏览 8分钟

 ·

2022-03-15 21:14

↑ 点击蓝字 关注极市平台

作者丨happy
编辑丨极市平台

极市导读

 

图像复原领域又一力作 >>加入极市CV技术交流群,走在计算机视觉的最前沿

arXiv:https://arXiv.org/abs/2111.09881

code:https://github.com/swz30/Restormer

本文是MPRNet与MIRNet的作者在图像复原领域的又一力作,也是Transformer技术在low-level领域的又一个SOTA。针对Transformer在高分辨率图像复原中存在的难点,提出了两种MDTA与GDFN两种改进,极大程度上缓解了计算量与GPU缓存占用问题。所提方案刷新了多个图像复原任务的SOTA性能。

Abstract

通过MHSA与FFN进行改进,本文提出一种高效Transformer,它可以捕获长距离像素相关性,同时可适用于大尺寸图像。所提方案Restormer(Restoration Transformer)在多个图像复原任务上取得了SOTA性能,包含图像去雨、图像去运动模糊、图像去散焦模糊以及图像降噪(包含合成与真实噪声),可参见下图。

本文主要贡献包含以下几点:

  • 提出了一种编解码Transformer用于高分辨率图像上多尺度local-global表达学习,且无需进行局部窗口拆分;
  • 提出一种MDTA(Multi-Dconv head Transposed Attention)模块,它有助于进行局部与非局部相关像素聚合,可以高效的进行高分辨率图像处理;
  • 提出一种GDFN(Gated-Dconv Feed-forward Network)模块,它可以执行可控特征变换,即抑制低信息特征,仅保留有用信息。

Method

本文旨在设计一种高效Transformer模型,它可以处理复原任务中的高分辨率图像。为缓解计算瓶颈,我们对MHSA进行了关键性改进并引入多尺度分层模块,见下图。

Overall Pipeline   给定退化图像 , Restormer的处理流程如下:

  • 首先, 采用卷积得到底层特征 ;
  • 然后, 这些底层特征将经由 4 级对称编解码器处理变换为深层特征 (每级编解码器包含 多个Transformer模块, 编码器分层降低空间分辨率, 同时扩展通道, 解码器则降低通道数, 提升空间分 辨率), 注: 为辅助重建过程, 编解特征将与解码特征通过跳过连接进行concat并后接 卷积降维;
  • 其次, 深层特征将经由提炼模块在进一步丰富特征多样性;
  • 最后, 通过卷积层处理生成残差图像 , 与输入图像相加即可得到复原图像

Multi-Dconv Head Transposed Attention

Transformer的主要计算负担来自自注意力层。在常规自注意力中,key-query的点乘操作会随分辨率以增长。因此,基本不可能将自注意力层用于图像复原任务(图像复原的输入分辨率一般都比较大)。

为解决该问题,我们提出了MDTA(见上图),它具有线性复杂度,其关键成分在于:在通道维度(而非空间维度)执行自注意力计算跨通道的交叉协方差以生成关于全局上下文的隐式注意力特征图。作为MDTA的另一个重要成分,在计算特征协方差生成全局特征图之前,我们引入了深度卷积以突出局部上下文。

对于输入 , MDTA的处理流程如下:

  • 首先, 生成 采用 深度卷积实现, 注:bias-free);
  • 然后, 对query与key进行reshape并进行点乘生成转置注意力图

MDTA的计算公式可以表示为:

注:是一个可学习缩放参数,用于控制点积的幅值。

Gated-Dconv Feed-forward Network

为进行特征变换, 常规FFN(由两个 卷积构成)对每个像素进行独立处理。本文则对齐进行了两个改动以 提升表达能力(见上图):

  • gating机制:它表现为两个并行分支的元素乘操作;
  • 深度卷积:它表现为 深度卷积以学习局部结构信息。

总而言之, GDFN可以控制信息流动, 进而使得每层聚焦于不同的细节信息。由于GDFN具有比FFN更多的 计算量, 我们降低扩展因子火以控制参数量与计算量。

Progressive Learning

基于CNN的复原模型通过采用固定尺寸图像块进行训练。然而,Transformer模型在较小块上训练可能无法进行全局统计信息编码,进而导致全分辨率测试时的次优性能。

针对该问题,我们提出了Progressive Learning机制:在训练的初期,模型在较小图像块上进行训练;在训练的后期,模型采用更大图像块进行训练 。由于更大的图像块会导致更长的计算耗时,我们随图像块提升降低batch参数以保持与固定块训练相当的耗时。

通过混合尺寸图像块训练的模型具有更优的性能。Progressive学习策略具有类似Curriculum学习策略相似的行为。

Experiments

我们在不同的任务上进行了所提方案的性能验证,包含图像去雨、图像去运动模糊、图像去散焦模糊、图像降噪。

Image Deraining

上图&表给出了所提方案在去雨任务上的性能与效果对比,可以看到:

  • 相比此前最佳SPAIR,Restormer在所有数据集上取得了平均1.05dB指标提升
  • 在Rain100L数据集上,性能增益甚至高达2.06dB
  • Restormer可以生成更好的无雨图像,且可以有效的保持结构内容。

Motion Deblurring

上表给出了所提方案在不同去模糊数据集上的性能对比,可以看到:

  • 相比MIMO-UNet+,所提Restormer可以取得了平均0.47dB指标提升;
  • 相比MPRNet,所提方案Restormer可以取得平均0.26dB指标提升;Restormer的FLOPs仅为MPRNet的81%;
  • 相比IPT,所提方案Restormer取得了0.4dB指标提升,同时具有更少的参数量(4.4x)、更快的推理速度(29x);
  • 可视化效果见下图,很明显:Restormer重建结果更锐利清晰。

Defocus Deblurring

上图&表给出了去散焦模糊任务上的性能对比,从中可以看到:

  • 无论是单帧还是双摄图像,所提方案大幅均优于其他方案;
  • 在组合场景方面,相比此前最佳IFAN,所提方案取得了约0.6dB指标提升;相比Uformer,所提方案取得了1.01dB指标提升;
  • 所提方案可以有效移除空间可变的散焦模糊。

Image Denoising

上表&图给出了不同图像降噪任务上的性能与效果对比,从中可以看到:

  • Gaussian Denoising:所提方案在两种实验配置下均取得了SOTA性能。对于极具挑战性的50噪声水平的Urban100数据,Restormer取得了比DRUNet高0.37dB指标,比SwinIR高0.31dB。此外,相比SwinIR,Restormer计算量更少,速度更快。
  • Real Denoising:所提方案是仅有的指标超过40dB的方案。相比此前最佳MIRNet与Uformer,所提方案分贝取得了0.3dB与0.25dB指标提升。
  • Visual:从视觉效果上来看,所提方案可以重建更清晰的图像,同时具有更细粒度的纹理。

Ablation Study

上表给出了关于模块的消融实验,可以看到:

  • 相比基线模型,MDTA可以带来0.32dB指标提升
  • GDFN可以在MTA基础上取得0.26dB指标提升;
  • GDFN与MDTA的组合可以取得了0.51dB指标提升。

从上表可以看到:

  • 在提炼阶段添加Transformer可以进一步提升模型性能;
  • Progressive学习机制可以取得更佳的指标,提升约0.07dB;
  • 深而窄的模型比宽而浅的模型质保更高。


公众号后台回复“数据集”获取50+深度学习数据集下载~

△点击卡片关注极市平台,获取最新CV干货
极市干货
数据集资源汇总:10个开源工业检测数据集汇总21个深度学习开源数据集分类汇总
算法trick目标检测比赛中的tricks集锦从39个kaggle竞赛中总结出来的图像分割的Tips和Tricks
技术综述:一文弄懂各种loss function工业图像异常检测最新研究总结(2019-2020)


CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~


觉得有用麻烦给个在看啦~  
浏览 62
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报