Last updated 2 years ago
论文地址:
将Sparse Attention和Kernel Attention并联:
O(nd2)O(nd^2)O(nd2)。
不变。
略过。
暂无。
思路很简洁,但是新意也比较有限,代码部分可以学习一下。