以下是时间序列领域必读论文的推荐清单,涵盖经典基础、深度学习主流模型、最新顶会论文和权威综述,并附简要说明,帮助你系统掌握该领域核心脉络:

一、经典统计与基础理论(入门必读)

  1. Box, G. E. P., Jenkins, G. M., Reinsel, G. C., & Ljung, G. M. (2015). Time Series Analysis: Forecasting and Control.
    • ARIMA、季节性模型等时间序列分析经典教材,理论基础必读。
  2. Hamilton, J. D. (1994). Time Series Analysis.
    • 经济时间序列分析权威教材,涵盖平稳性、单位根、协整等核心概念。

二、深度学习时间序列模型(主流必读)

RNN/LSTM/GRU系列

  1. Hochreiter, S., & Schmidhuber, J. (1997). Long Short-Term Memory.
    • LSTM原论文,解决长期依赖问题,时间序列深度学习入门必读。
  2. Cho, K., et al. (2014). Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation.
    • GRU模型提出,适用于时间序列序列到序列任务。

CNN系列

  1. Bai, S., Kolter, J. Z., & Koltun, V. (2018). An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling.
    • CNN在时间序列上的经典应用,证明其可媲美RNN/LSTM。

Transformer系列

  1. Vaswani, A., et al. (2017). Attention Is All You Need.
    • Transformer原论文,时间序列注意力机制基础。
  2. Wu, H., et al. (2021). Autoformer: Decomposition Transformers with Auto-Correlation for Long-Term Series Forecasting.
    • 首个针对时间序列长时预测的Transformer变体。
  3. Zhou, H., et al. (2022). Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting.
    • 提出ProbSparse Attention,大幅提升长序列预测效率。
  4. Liu, Y., et al. (2022). TimesNet: Temporal 2D-Variation Modeling for General Time Series Analysis.
    • 将一维时间序列转为二维张量,用CNN建模复杂时序变化,ICLR 2023。
  5. Yu, H., et al. (2023). iTransformer: Inverted Transformers Are Effective for Time Series Forecasting.
    • 倒置Transformer结构,变量中心建模,ICLR 2024。

三、近年顶会前沿论文(跟踪热点)

多变量与跨维度建模

  1. Zhang, Y., et al. (2023). Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series Forecasting.
    • 多变量时序预测,跨维度注意力机制,ICLR 2023。
  2. Woo, G., et al. (2024). Unified Training of Universal Time Series Forecasting Transformers.
    • 通用时序预测Transformer,ICML 2024。

Patch与表示学习

  1. Nie, Y., et al. (2022). PatchTST: Can Transformers Serve as a Replacement for Time Series Forecasting?
    • PatchTST提出,时间序列分块处理,ICLR 2023。
  2. Liu, Y., et al. (2023). PITS: Learning to Embed Time Series Patches Independently.
    • Patch独立表示学习,提升泛化性。

基础模型与大模型

  1. Das, A., et al. (2024). A decoder-only foundation model for time-series forecasting.
    • 时序基础模型,decoder-only结构,ICML 2024。
  2. Cao, D., et al. (2023). Time-LLM: A Large Language Model for Time Series.
    • LLM用于时序预测,探索大模型时序能力。

四、综述与论文集合(快速掌握全貌)

  1. Lim, B., et al. (2021). Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting.
    • 综合模型与可解释性,综述性极强。
  2. 腾讯云开发者社区《深度学习时间序列的综述》
    • 中文深度学习时序预测综述,涵盖RNN、CNN、Transformer等主流模型。
  3. 知乎《值得关注的10篇时间序列领域论文》
    • 汇总2023-2024年顶会高影响力论文,含模型结构、大模型、多变量建模等。
  4. CSDN《ICML 2024 时间序列论文总结》
    • 2024年ICML时间序列最新论文汇总,含预测、大模型、因果、生成等方向。

五、推荐阅读路径

  • 入门:Box & Jenkins → LSTM/GRU → Transformer原论文
  • 进阶:Autoformer/Informer → PatchTST → TimesNet/iTransformer
  • 前沿:Crossformer、Time-LLM、ICML/ICLR最新论文
  • 系统掌握:阅读综述(如腾讯云、知乎、CSDN汇总)+顶会论文集

附:论文资源获取

  • GitHub开源代码库(如Time-Series-Library)
  • arXiv(https://arxiv.org/list/cs.LG/recent)
  • Google Scholar(搜索关键词“time series forecasting transformer”)

如需进一步细分方向(如异常检测、时序生成、因果分析等),可继续补充对应领域必读论文。祝你阅读顺利!


Logo

火山引擎开发者社区是火山引擎打造的AI技术生态平台,聚焦Agent与大模型开发,提供豆包系列模型(图像/视频/视觉)、智能分析与会话工具,并配套评测集、动手实验室及行业案例库。社区通过技术沙龙、挑战赛等活动促进开发者成长,新用户可领50万Tokens权益,助力构建智能应用。

更多推荐