Sparse MLP for Image Recognition: Is Self-Attention Really Necessary?
PreviousWhen Shift Operation Meets Vision Transformer: An Extremely Simple Alternative to Attention MechanismNextHead
Last updated
Last updated
论文地址:
利用Sparse MLP进行Token Mixing:
实现起来也非常简单,见论文伪代码。
。
只适用于CV场景。
暂无。
很简单的思路,也比较优雅。