Swin Transformer V2: Scaling Up Capacity and Resolution
PreviousIGLOO: Slicing the Features Space to Represent SequencesNextSkip-Attention: Improving Vision Transformers by Paying Less Attention
Last updated
Last updated
论文地址:
对Swin-Transformer做了一些工程上的改进:
PreNorm换成PostNorm;
做内积之前先过了归一化:;
增加相对位置编码:;
图示:
不考虑。
不考虑。
细节挺多的,复现的时候细读。
做了一些工程上的改进,代码库中也有cuda相关代码,值得复现。