论文地址:
https://arxiv.org/abs/2202.01381arrow-up-right
针对时间序列问题的特点,提出了Exponential Smoothing Attention和Frequency Attention,这里主要讨论Exponential Smoothing Attention。
输入:V∈Rn×dV\in \mathbb R^{n\times d}V∈Rn×d
输出:AES⋅[v0⊤V]∈Rn×d{A}_{\mathrm{ES}} \cdot\left[\begin{array}{c} \mathbf {v}_{0}^{\top} \\ {V} \end{array}\right]\in \mathbb R^{n\times d}AES⋅[v0⊤V]∈Rn×d,其中
利用论文提出的算法,可以再O(ndlogn)O(nd\log n)O(ndlogn)中完成。
O(ndlogn)O(nd\log n)O(ndlogn)。
不变。
https://github.com/lucidrains/ETSformer-pytorcharrow-up-right
本文主要讨论的是时间序列问题,实验部分忽略。
暂无。
本质上还是一种相对位置编码的思路,可以在O(ndlogn)O(nd\log n)O(ndlogn)时间内完成,可以进行尝试。
Last updated 2 years ago