FMMformer: Efficient and Flexible Transformer via Decomposed Near-field and Far-field Attention

论文地址:

整体思路以及计算方式

利用Local Attention + Low-rank Attention逼近Softmax Attention,其中Low-rank Attention就是常用的Linear Attention。

代码

简评

简单常规的思路,类似的论文也不少了。

Last updated