时间序列必读论文
本文整理了时间序列分析领域的必读论文清单,涵盖经典理论、深度学习模型和前沿研究。经典部分推荐Box & Jenkins的ARIMA模型和Hamilton的统计分析教材;深度学习方法包括LSTM、GRU、CNN和Transformer系列(如Autoformer、Informer);前沿研究涉及多变量建模、Patch表示学习和时序大模型(如Time-LLM)。还提供了综述文献和阅读路径建议,
·
以下是时间序列领域必读论文的推荐清单,涵盖经典基础、深度学习主流模型、最新顶会论文和权威综述,并附简要说明,帮助你系统掌握该领域核心脉络:
一、经典统计与基础理论(入门必读)
- Box, G. E. P., Jenkins, G. M., Reinsel, G. C., & Ljung, G. M. (2015). Time Series Analysis: Forecasting and Control.
- ARIMA、季节性模型等时间序列分析经典教材,理论基础必读。
- Hamilton, J. D. (1994). Time Series Analysis.
- 经济时间序列分析权威教材,涵盖平稳性、单位根、协整等核心概念。
二、深度学习时间序列模型(主流必读)
RNN/LSTM/GRU系列
- Hochreiter, S., & Schmidhuber, J. (1997). Long Short-Term Memory.
- LSTM原论文,解决长期依赖问题,时间序列深度学习入门必读。
- Cho, K., et al. (2014). Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation.
- GRU模型提出,适用于时间序列序列到序列任务。
CNN系列
- Bai, S., Kolter, J. Z., & Koltun, V. (2018). An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling.
- CNN在时间序列上的经典应用,证明其可媲美RNN/LSTM。
Transformer系列
- Vaswani, A., et al. (2017). Attention Is All You Need.
- Transformer原论文,时间序列注意力机制基础。
- Wu, H., et al. (2021). Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting.
- 首个针对时间序列长时预测的Transformer变体。
- Zhou, H., et al. (2022). Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting.
- 提出ProbSparse Attention,大幅提升长序列预测效率。
- Liu, Y., et al. (2022). TimesNet: Temporal 2D-Variation Modeling for General Time Series Analysis.
- 将一维时间序列转为二维张量,用CNN建模复杂时序变化,ICLR 2023。
- Yu, H., et al. (2023). iTransformer: Inverted Transformers Are Effective for Time Series Forecasting.
- 倒置Transformer结构,变量中心建模,ICLR 2024。
三、近年顶会前沿论文(跟踪热点)
多变量与跨维度建模
- Zhang, Y., et al. (2023). Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series Forecasting.
- 多变量时序预测,跨维度注意力机制,ICLR 2023。
- Woo, G., et al. (2024). Unified Training of Universal Time Series Forecasting Transformers.
- 通用时序预测Transformer,ICML 2024。
Patch与表示学习
- Nie, Y., et al. (2022). PatchTST: Can Transformers Serve as a Replacement for Time Series Forecasting?
- PatchTST提出,时间序列分块处理,ICLR 2023。
- Liu, Y., et al. (2023). PITS: Learning to Embed Time Series Patches Independently.
- Patch独立表示学习,提升泛化性。
基础模型与大模型
- Das, A., et al. (2024). A decoder-only foundation model for time-series forecasting.
- 时序基础模型,decoder-only结构,ICML 2024。
- Cao, D., et al. (2023). Time-LLM: A Large Language Model for Time Series.
- LLM用于时序预测,探索大模型时序能力。
四、综述与论文集合(快速掌握全貌)
- Lim, B., et al. (2021). Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting.
- 综合模型与可解释性,综述性极强。
- 腾讯云开发者社区《深度学习时间序列的综述》
- 中文深度学习时序预测综述,涵盖RNN、CNN、Transformer等主流模型。
- 知乎《值得关注的10篇时间序列领域论文》
- 汇总2023-2024年顶会高影响力论文,含模型结构、大模型、多变量建模等。
- CSDN《ICML 2024 时间序列论文总结》
- 2024年ICML时间序列最新论文汇总,含预测、大模型、因果、生成等方向。
五、推荐阅读路径
- 入门:Box & Jenkins → LSTM/GRU → Transformer原论文
- 进阶:Autoformer/Informer → PatchTST → TimesNet/iTransformer
- 前沿:Crossformer、Time-LLM、ICML/ICLR最新论文
- 系统掌握:阅读综述(如腾讯云、知乎、CSDN汇总)+顶会论文集
附:论文资源获取
- GitHub开源代码库(如Time-Series-Library)
- arXiv(https://arxiv.org/list/cs.LG/recent)
- Google Scholar(搜索关键词“time series forecasting transformer”)
如需进一步细分方向(如异常检测、时序生成、因果分析等),可继续补充对应领域必读论文。祝你阅读顺利!
火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。
更多推荐
所有评论(0)