我最近读了一篇非常有趣的论文,叫做 Deep Transformer Models for Time Series Forecasting: The Influenza Prevalence Case。
H. Zhao, J. Gao, T. Lan, C. Sun, B. Sapp, B. Varadarajan, Y. Shen, Y. Shen, Y. Chai, C. Schmid, C. Li, and D. Anguelov, “TNT: target-driven trajectory prediction,”CoRR, vol. abs/2008.08294, 2020. arXiv: 2008 . 08294. . Available:见原文链接.
#来点儿干货#前言iTransformer(inverted Transformer)是2023年10月清华大学和蚂蚁集团联合提出的时序预测模型,论文中指出iTransformer在众多时序数据集上超跃了所有其他算法达到SOTA,本文将对iTransformer做理论介绍,并且附
【新智元导读】最近,来自清华大学和蚂蚁集团的研究人员重新审视Transformer结构在时序分析中的应用,提出一个全新的反转视角——无需修改任何模块,即可实现Transformer在时序预测任务上的全面领先!
1- 金融,比如预测股票,纯用K线做,我个人不太推荐。RNN,一般来讲时序LLM,其实天然和RNN,LSTM这些玩意契合,因为有本身RNN就有时间步的概念,也能部分解决长距离依赖,缺点训练费劲,也做不大,要不咋干不过Transformer呢?
最初版本的Nbeats无法输入外部特征,后续的论文Neural basis expansion analysis with exogenous variables: Forecasting electricity prices with NBEATSx在初版Nbeats基础上增加了引入外部特征的能力。