#来点儿干货#前言iTransformer(inverted Transformer)是2023年10月清华大学和蚂蚁集团联合提出的时序预测模型,论文中指出iTransformer在众多时序数据集上超跃了所有其他算法达到SOTA,本文将对iTransformer做理论介绍,并且附
在计算机视觉 和自然语言处理 领域,基础大模型已经展现了强大的能力。论文题目: 《Unified Training of Universal Time Series Forecasting Transformers 》地址链接: 见原文链接。
Makridakis et al., The M5 Accuracy competition: Results, findings and conclusions,D. Salinas et al., DeepAR: Probabilistic forecasting with autoregressive recurrent networks, International Journal of Forecasting .
Yonghui Wu et al. Google’s Neural Machine Translation System: Bridging the Gap between Human and Machine Translation。