论文精读–Autoformer

  1. 论文简介

标题:Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting

作者:Haixu Wu, Jiehui Xu, Jianmin Wang, Mingsheng Long(Tsinghua University)

发表刊物:NeurIPS 2021

论文下载地址:https://arxiv.org/abs/2106.13008

作者代码地址:GitHub – thuml/Autoformer: About Code release for “Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting” (NeurIPS 2021), https://arxiv.org/abs/2106.13008

  1. 背景及意义

长距离的时序预测问题,传统的transformer及其改版在计算注意力机制时通常使用以下公式:

论文精读--Autoformer

导致每次计算时都要将Q与每一个K做相似度计算,而过长的输入迫使模型只能采用稀疏点积取代逐个点积,从而丢失部分信息。

针对此问题,本文提出Auto-Correlation,以 子序列之间的相关性计算取代点与点之间的相关性计算,从而直接捕捉子序列直接的关系,提高对历史数据的利用率。

此外,本文将传统transformer直接对输入原始数据处理,修改成 季节性-趋势性分解后进行处理,并将注意力机制着重点放在捕捉季节性信息。

  1. 研究方法

3.1. 整体框架

论文精读--Autoformer

本文提出基于子序列相关性的Auto-Correlation块和基于时序分解的Series Decomp块,分别代替传统transformer中的Self-Attention块和Layer Norm块

3.2. Encoder

论文精读--Autoformer
  • *结构流程

原始原始数据经过Auto-Correlation 得到带权和,与自身相加后通过Series Decomp 去除趋势性信息,经过前馈网络与自身相加后再次去除趋势性信息,作为全局的季节性信息表示传递给Decoder

  • *公式表达

论文精读--Autoformer

论文精读--Autoformer

论文精读--Autoformer

3.3. Decoder

论文精读--Autoformer
  • *结构流程

季节性信息部分:原始数据(预测部分的季节信息以0 填充)的季节信息经过Auto-Correlation 与自身相加后,经分解得到季节性信息作为Q ,与Encoder 传递的K/V 经Auto-Correlation 得到全局历史信息加权和,与自身相加、分解后把季节信息经过前馈网络再与自身相加,最后分解提取季节信息,得到最终季节预测。

趋势性信息部分:原始数据(预测部分的趋势信息以历史均值填充)的趋势信息,通过季节信息通道三次时序分解得到的趋势信息加权聚合,得到最终趋势预测

  • *公式表达

论文精读--Autoformer

3.4. Auto-Correlation

论文精读--Autoformer
  • *时延序列

选择时延时长

论文精读--Autoformer,将原始序列的前论文精读--Autoformer个数据点转移到末尾(如上右图)
  • *子序列相关性(基于随机过程理论)

与Self-Attenetion中的相关性计算类似,通过QK之间的计算,结果越大,表明序列之间的相关性越大,经过SoftMax之后可得到非负且和为1的权重

论文精读--Autoformer

论文精读--Autoformer

论文精读--Autoformer
  • *时延聚合

Self-Attenetion中的加权和类似,将SoftMax输出的权重与时延子序列相乘相加得到时延子序列的加权和,即聚合感兴趣的历史信息

论文精读--Autoformer

论文精读--Autoformer

论文精读--Autoformer

3.5. SeriesDecomp

论文精读--Autoformer
  • *趋势性信息提取

以序列的滑动平均值作为趋势信息

论文精读--Autoformer
  • *季节性信息提取

以源序列减去其滑动平均值作为季节性信息

论文精读--Autoformer
  1. 实验验证

4.1. 不同Attention之间对比

论文精读--Autoformer

作者将自己的Auto-Corelation将全Attention和两种稀疏Attention作比较,可以看出传统点积的Attention感兴趣的点与源点之间关联度并不高,对时序之间的模式提取能力弱,凸显本文新Attention在捕捉子序列相关性上的优势

4.2. 数据集测试效果对比

论文精读--Autoformer

作者以MSE,MAE作为评估项目,在ETT等六种不同领域的时序数据集上,与Informer等三种Transformer改版、两种基于LSTM的模型和TCN进行对比,在不同未来预测长度中均胜过其余Baseline算法。

Original: https://blog.csdn.net/weixin_43909400/article/details/126707027
Author: 云龙弓手
Title: 论文精读–Autoformer

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/651986/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球