IGLOO: Slicing the Features Space to Represent Sequences
PreviousETSformer: Exponential Smoothing Transformers for Time-series ForecastingNextSwin Transformer V2: Scaling Up Capacity and Resolution
Last updated
Last updated
论文地址:
引入了一个全新的计算Attention的方式,主要分为两个部分IGLOO-base和IGLOO-seq,原论文写的非常不清楚,所以这里按照自己的理解进行梳理。
IGLOO-base(记为):
输入:
降采样:
重复降采样次得到:
重复次可得
IGLOO-seq:
输入:
可学习矩阵:
不变。
作者做了一些实验,但是参数量无法对齐,所以有效性不太好说。
暂无。
论文写的非常不清楚,实验也不严格,是否有效需要验证。
有点复杂,但关于应该是线性复杂度。