
计算机
从模型设计的角度来看,PatchTST实际上已经逼近了当前基于Transformer架构的时间序列模型性能上限。如果要进一步提升性能,可能需要像自然语言处理(NLP)和
计算机视觉(CV)领域一样,通过扩大规模(scaling up)来实现。然而,时间序列数据在进行规模化扩展时面临诸多难题。现实中,描述完全孤立系统的纯时间序列数据极为稀少。大多数大规模时间序列数据要么是时空相关数据(例如气候、交通流量),要么与外部变量高度耦合(如金融数据)。此外,时间序列的数据分布可能存在过于离散的问题,导致很难用一个统一的模型对其进行有效建模。即使能够构建统一模型,其效果也可能不如针对不同场景分别建模。这些问题是制约时间序列模型规模化发展的关键障碍。因此,当我们讨论时间序列模型是否还有进一步优化的空间时,一方面需要思考如何克服上述问题;另一方面可以借鉴CV和NLP领域的经验,探索它们除了规模化之外的其他改进路径。回顾CV和NLP的发展历程,似乎规模化确实是推动其进一步突破的主要方向。