061 - 文章阅读笔记:CNN与Transformer相互促进,助力ACT进一步提升超分性能 - AIWalker
本文最后更新于:3 个月前
原文链接:
CNN与Transformer相互促进,助力ACT进一步提升超分性能 - AIWalker
2022-03-21 22:00
ps:本文为依据个人日常阅读习惯,在原文的基础上记录阅读进度、记录个人想法和收获所写,关于原文一切内容的著作权全部归原作者所有。
[√] 文章信息
论文题目:【ACT】Rich CNN-Transformer Feature Aggregation Networks for Super-Resolution
中文题目:用于图像超分的nb的CNN-transformer特征聚合网络
论文链接:https://arxiv.org/abs/2203.07682
代码链接:https://github.com/jinsuyoo/act
论文发表:WACV 2023
本文提出一种用于图像超分的混合架构,它同时利用了CNN局部特征提取能力与Transformer的长程建模能力以提升超分性能。
具体来说,该架构由CNN与Transformer两个分支构成,并通过信息互融合补偿各自特征表达进一步提升性能。
更进一步,本文提出一种跨尺度token注意力模块,它使得Transformer可以更高效的探索不同尺度token的信息相关性。所提方案在多个图像超分数据集上取得了SOTA性能。
[√] Method
上图给出了所提方案ACT的整体架构示意图,很明显,它也是一种类EDSR的架构,其核心在于body部分的组成。因此,我们主要对这两部分进行相似介绍,其他部分略过。ACT的body部分由于CNN与Transformer两个分支以及FusionBlock构成:
- CNN branch: 该分支采用了RCAB模块。具体来说,我们堆叠N个RCAB模块生成如下特征。
alec:
- MHSA = 多头自注意力
- CSTA = cross-scale token attention = 跨尺度的token注意力
- token = 象征,代表
- leverage = 杠杆、促使、影响
- Transformer branch: 在该部分,我们基于MHSA进行构建。此外,我们还添加了CSTA(Cross-Scale Token Attention)模块以探索跨尺度相关性,见上图。我们首先将浅层特征序列化为非重叠token(注:d表示每个token的维度,n表示token的数量)。此外,我们发现:位置信息对于超分而言并不重要,故我们并未对token添加位置嵌入信息。经由上述处理得到的token将被送入到Transformer分支进行处理,描述如下:
正如Fig2a所示,每个Transformer模块包含两个连续的注意力操作:MHSA与CSTA。
通过对不同尺度的QKV信息进行混合处理,CSTA可以对跨尺度信息进行探。
- Multi-branch Feature Aggregation 如前面Fig1所示,我们需要对不同分支的特征进行融合。我们采用了上图所示的双向融合方案,该融合方式可以描述成如下公式:
[√] Experiments
在模型配置方面,ACT有四个CNN模块、四个Transformer模块,每个CNN模块包含12个RCAB模块,通道数为64,Transformer模块的维度为576,融合模块堆叠了四个$1 \times1 $残差模块。
在模型训练方面,本文参考IPT,采用ImageNet进行训练。输入图像块尺寸固定为$48 \times48$,常规数据增强,Adam优化器,batch=512,训练150epoch。
上表&图给出了不同方案的性能与效果对比,从中可以看到:
- 相比其他方案,在所有尺度下,ACT与ACT均取得最/次最佳的PSNR/SSIM指标;
- 相比IPT,受益于多尺度特征提取与融合,ACT取得了显著性能提升;
- 相比SwinIR,ACT在Urban100上的指标高出0.3dB,证实了CSTA模块可以成功探索多尺度特征(话说,这个指标提升真的来自CSTA吗?与ImageNet训练无关吗?)。
上表从参数量与FLOPs方面对不同方案进行了对比,可以看到:尽管ACT的参数量多于EDSR、RCAN与SwinIR,但FLOPs是所有方案中最低者。