图像超分辨率网络中的注意力机制
数据派THU
共 2548字,需浏览 6分钟
· 2021-05-02
![](https://filescdn.proginn.com/1a6806eea95c906f521ec79ed7f4cb8b/089bdf8bf070eccd0d14356dd48bcf8c.webp)
来源:DeepHub IMBA 本文约2100字,建议阅读8分钟
本文为你介绍的论文试图量化和可视化静态注意力机制,并表明并非所有的注意模块都是有益的。
图像超分辨率(SR)是一种低层次的计算机视觉问题,其目标是从低分辨率观测中恢复出高分辨率图像。近年来,基于深度卷积神经网络(CNN)的SR方法取得了显著的成功,CNN模型的性能不断增长。近年来,一些方法开始将注意机制集成到SR模型中,如频道注意和空间注意。注意力机制的引入通过增强静态cnn的表示能力,极大地提高了这些网络的性能。
动机
图像的每个部分的注意力因素是高还是低? 注意力机制是否总是有利于SR模式?
![](https://filescdn.proginn.com/5bb60833dc222bda287545f6a56f33b1/bc9a6a07c4f8d8dfca199315a0db943b.webp)
第一行:平均输入特征图。
第二行:平均输出特征图。
第三行:平均注意力地图。
![](https://filescdn.proginn.com/cac5f5b0bc0de2566a051bb7e72463cc/5371020288b25cee397840c60c2d72b4.webp)
![](https://filescdn.proginn.com/d26c132a77896b4b9bd174543febb88e/ae586a3d274282f482be6b282560dd25.webp)
方法
![](https://filescdn.proginn.com/0eaf40dd159d251316b9a3cdc9747256/65ce8c41b196e70b9e80f28d1fb21366.webp)
浅层的特征提取; 注意块深度特征提取中的注意力; 图像重建模块。
![](https://filescdn.proginn.com/eaf4c88875cbdaed1a85bfe0b4a58776/312687117ed76385b02b4b928a2dfdde.webp)
![](https://filescdn.proginn.com/a264a9305883793a14ec9618955a44e2/1545ce5250699291d446f22b815739be.webp)
![](https://filescdn.proginn.com/ad63e30de8b09f7c96a305a3ff46eaff/03d75ef6e36678ada44a52f4105f00d6.webp)
![](https://filescdn.proginn.com/f77b1308f11c24ff1b314482dbf2c521/89b9602a6bb589cb98d893b31e1c9377.webp)
![](https://filescdn.proginn.com/8594c46c6fe0b74e52eb59461ae58fc2/0b10a10604a2bec651a8b5584a9e7dd1.webp)
![](https://filescdn.proginn.com/6895f808e7857dd6127343aeaad8ce2e/bcd87a355b34e6808fdb6065d0aeee59.webp)
结论
编辑:黄继彦
校对:林亦霖
评论