会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Persistent.
昨日种种,皆成今我,切莫思量,更莫哀,从今往后,怎么收获,怎么栽.
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
4
5
6
7
8
9
10
11
12
···
56
下一页
2022年7月20日
/*--------------分割线--------------*/
摘要: 记录我乱七八糟神经质的情绪.
阅读全文
posted @ 2022-07-20 15:01 ZERO-
阅读(0)
评论(0)
推荐(0)
2022年7月19日
GANF: 用于多时间序列异常检测的图增广归一化流《Graph-Augmented Normalizing Flows for Anomaly Detection of Multiple Time Series》(异常检测、多时间序列、DAG、贝叶斯网络、归一化流)
摘要: 今天是2022年7月12日,差不多小半个月没看论文了,因为模型一直运行不起来+系统搭建的一塌糊涂,今天干脆摆烂,本咸鱼要去看新的论文了(逃避旧工作,bushi)。 对了,我们放暑假了,可是我没放暑假... 论文:Graph-Augmented Normalizing Flows for Anomal
阅读全文
posted @ 2022-07-19 15:25 ZERO-
阅读(2724)
评论(0)
推荐(0)
2022年6月30日
CoST: 时间序列预测中分离季节趋势特征的对比学习《CoST: Contrastive Learning of Disentangled Seasonal-Trend Representations for Time Series Forecasting》(时序预测、表征学习、对比学习、因果关系、分离趋势季节特征)
摘要: 2022/6/18 11:32,简单记录一下随笔(因为不写点东西,根本注意力不集中,看5分钟可能要摸鱼10分钟,还是要写点,突然发现,草稿箱里最早的一篇没写完的博客是去年的7月2日,救命啊,我拖了一年了,还没写完)。 论文:CoST: Contrastive Learning of Disentan
阅读全文
posted @ 2022-06-30 22:04 ZERO-
阅读(2808)
评论(0)
推荐(0)
2022年5月3日
硕士开题报告
该文被密码保护。
阅读全文
posted @ 2022-05-03 16:07 ZERO-
阅读(0)
评论(0)
推荐(0)
课程链接备忘
该文被密码保护。
阅读全文
posted @ 2022-05-03 16:05 ZERO-
阅读(0)
评论(0)
推荐(0)
2022年3月28日
我的母语是无语
该文被密码保护。
阅读全文
posted @ 2022-03-28 16:36 ZERO-
阅读(2)
评论(0)
推荐(0)
2021年11月15日
分类与回归的区别
摘要: 具体的看链接,感觉都是感性的分析,因为没有严格的界定。 粗糙理解: 输出的是类别,比如明天天气是晴天还是阴天,是分类。 预测一个数值,比如明天气温是多少度,这是回归。 传送门1:【机器学习小常识】“分类” 与 “回归”的概念及区别详解 传送门2:分类与回归区别是什么? 传送门3:1.4 数据分类问题
阅读全文
posted @ 2021-11-15 15:58 ZERO-
阅读(334)
评论(0)
推荐(0)
2021年10月9日
Encoder-Decoder、Seq2Seq、Attention
摘要: Encoder-Decoder、Seq2Seq、Attention 传送门1:Encoder-Decoder 和 Seq2Seq 因为注意力不集中,所以这篇随笔就是看别人的文章,随手参考写写的。 1.Encoder-Decoder Encoder-Decoder模型并不特指某种具体算法,而是一种通用
阅读全文
posted @ 2021-10-09 16:29 ZERO-
阅读(407)
评论(0)
推荐(0)
2021年9月26日
深度学习/NLP中的Attention注意力机制
摘要: 首先是整体认知,Attention的位置: 传送门1:Attention 机制 传送门2:Attention用于NLP的一些小结 一句话概括:Attention就是从关注全局到关注重点。 借鉴了人类视觉的选择性注意力机制,核心目标也是从众多信息中选择出更关键的信息。 Attention的思路就是:带
阅读全文
posted @ 2021-09-26 15:32 ZERO-
阅读(525)
评论(0)
推荐(0)
2021年9月13日
DNN、CNN、RNN的区别
摘要: 参考1:CNN、RNN、DNN区别 参考2:一文读懂 CNN、DNN、RNN 内部网络结构区别 一张图解释所有: 感知机(输入层、输出层、一个隐藏层)-->不能解决复杂的函数-->神经网络NN出现(多层感知机出现,使用sigmoid或tanh、反向传播BP算法)-->层数加深,出现局部最优和梯度消失
阅读全文
posted @ 2021-09-13 10:54 ZERO-
阅读(5314)
评论(0)
推荐(0)
上一页
1
···
4
5
6
7
8
9
10
11
12
···
56
下一页
公告