上一页 1 ··· 49 50 51 52 53 54 55 56 57 ··· 341 下一页
摘要: 目录informer相关模型数据集划分模型参数跑通自定义数据集预测结果可视化informer相关 论文:https://arxiv.org/abs/2012.07436 感谢论文作者对AI科学做出的贡献,才能像我这种普通人能有机会接触这么nice的文章。作者的github:GitHub - zhou 阅读全文
posted @ 2023-10-08 08:06 emanlee 阅读(2777) 评论(0) 推荐(0)
摘要: 针对Informer中时序数据ETT油温数据分析针对Informer中时序数据ETT油温数据分析 油温数据介绍 数据问题介绍 数据分析油温数据介绍电力变压器油温数据,由国家电网提供,该数据集是来自中国同一个省的两个不同县的变压器数据,时间跨度为2年,原始数据每分钟记录一次(用 m 标记),每个数据集 阅读全文
posted @ 2023-10-08 08:04 emanlee 阅读(995) 评论(0) 推荐(0)
摘要: https://openreview.net/forum?id=J4gRj6d5Qm Q1: For time series without clear periodicity, whether Auto-Correlation still works or not? In Table 3 of m 阅读全文
posted @ 2023-10-08 08:03 emanlee 阅读(47) 评论(0) 推荐(0)
摘要: Our results show that DLinear outperforms existing complex Transformer-based models in most cases by a large margin. In particular, for the Exchange-R 阅读全文
posted @ 2023-10-08 08:03 emanlee 阅读(95) 评论(0) 推荐(0)
摘要: While some deep learning models discover dependencies in decomposed time series, they are not good at capturing local dynamics and long-term dependenc 阅读全文
posted @ 2023-10-08 08:03 emanlee 阅读(32) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/weixin_44790306/article/details/124064177 摘要本周一是对Informer论文的阅读,其关注的问题依然是长时间序列预测问题。也是从self-attention 机制的缺陷出发,做了一些优化于改进工作,像ProbSpa 阅读全文
posted @ 2023-10-08 08:02 emanlee 阅读(1730) 评论(0) 推荐(0)
摘要: Informer: 一个基于Transformer的效率优化的长时间序列预测模型 Informer创新点介绍 ProbSparse self-attention self-attention蒸馏机制 一步Decoder 实验结果 总结 Informer: Beyond Efficient Trans 阅读全文
posted @ 2023-10-08 08:02 emanlee 阅读(931) 评论(0) 推荐(0)
摘要: 参数量方法一:pytorch自带方法,计算模型参数总量 参数量方法二: summary的使用:来自于torchinfo第三方库 参数量方法三: summary的使用:来自于torchsummary第三方库 计算量方法一:thop的使用,输出计算量FLOPs和参数量parameter我们通常要通过计算 阅读全文
posted @ 2023-10-08 08:01 emanlee 阅读(8884) 评论(0) 推荐(0)
摘要: https://www.zhihu.com/question/547837668 https://www.zhihu.com/question/24021704 https://www.zhihu.com/question/24021704/answer/2245867156 傅立叶原理表明:任何连 阅读全文
posted @ 2023-10-08 08:01 emanlee 阅读(82) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/weixin_49967436/article/details/121736079 3.1.Multi-Head Attention(图2-红色圆圈部分,图3-红色长方体) 3.2.Self-sttention Distilling(图2-蓝色圆圈部分,图 阅读全文
posted @ 2023-10-08 07:59 emanlee 阅读(100) 评论(0) 推荐(0)
上一页 1 ··· 49 50 51 52 53 54 55 56 57 ··· 341 下一页