摘要: 原始"Attention Is All You Need"论文中提出的标准Transformer架构最初设计用于处理离散输入和输出序列标记(token),但将其应用于时间序列分析时,需要对模型结构进行适当调整以适应连续数据特性。本文详细阐述了使原始Transformer架构能够高效处理连续值时间序列 阅读全文
posted @ 2025-03-16 10:29 deephub 阅读(30) 评论(0) 推荐(0)