ETSformer: Exponential Smoothing Transformers for Time-series Forecasting
论文地址:
整体思路以及计算方式
针对时间序列问题的特点,提出了Exponential Smoothing Attention和Frequency Attention,这里主要讨论Exponential Smoothing Attention。
输入:V∈Rn×d
输出:AES⋅[v0⊤V]∈Rn×d,其中
AES=(1−α)1(1−α)2(1−α)3⋮(1−α)nαα(1−α)α(1−α)2⋮α(1−α)n−10αα(1−α)⋮…00α⋮α(1−α)j………⋱…000⋮α
利用论文提出的算法,可以再O(ndlogn)中完成。
时间复杂度
O(ndlogn)。
训练以及loss
不变。
代码
实验以及适用场景
本文主要讨论的是时间序列问题,实验部分忽略。
细节
暂无。
简评
本质上还是一种相对位置编码的思路,可以在O(ndlogn)时间内完成,可以进行尝试。