时间序列预测增强方法总结:频域、分解、patch
数据增强是现代机器学习中一个绕不开的环节。在计算机视觉里,不做增强就很难训练出一个好的的模型;在时间序列分类领域,虽然也已经沉淀出一套相对成熟的技术——jittering、scaling、window slicing、time warping、permutation、rotation,还有若干基于模式的变体,但时间序列预测是另一回事。
预测任务的目标不是一个离散的类别标签,而是紧接在输入之后的那一段连续信号。这一点改变了整个问题的性质。对分类任务来说安全的变换——比如对输入的一部分做 warping,或者往一个窗口里注入噪声——放到预测里就很容易破坏 look-back 窗口和预测 horizon 之间的关系。但是关系一旦断裂,模型训练时看到的 input-target 对就不再彼此自洽,预测性能随之滑落。
大部分在分类中表现良好的经典增强方法都在预测任务上被评估过,结果基本都没能跑赢不做增强的基线。这个结果本身就很说明问题:它把预测增强中一个内在问题暴露了出来:方法必须引入足够的多样性,让模型见到训练数据之外的变化,而且还要保持时间一致性,让增强后的信号仍然是一个合法的连续序列。把这两点同时搞定才是预测增强难以处理的地方。
所以一个有效的预测增强,应当对序列做足够的修改以产生价值,但不能修改到让输入与其未来失去一致性。
为什么面向分类的增强在预测中表现不佳
jittering、scaling、window warping、permutation 这些经典技术,最初都是为分类任务设计的。在标签不变的前提下,它们工作得不错。可预测里的“标签”就是序列后面那一段,只扰动输入、对信号局部做 warping 或者把局部时序扭得过猛,都会产出一段未来已不再合理的输入。这类方法通常压不过不做增强训练出来的模型。
WaveMask/WaveMix 和 TPS 这两条工作线都强调同一点:预测任务对 input-target 一致性的要求,比分类或异常检测严苛得多。随机性可以加,但必须是正确那种随机性——不破坏信号时间结构的那种。
https://avoid.overfit.cn/post/31f75a813b4947bea596fb1adc3102fc

浙公网安备 33010602011771号