会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
笨笨和呆呆
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
19
20
21
22
23
24
25
26
27
···
68
下一页
2022年12月20日
github给pc添加权限
摘要: https://blog.csdn.net/qq_43705131/article/details/107965888
阅读全文
posted @ 2022-12-20 12:51 笨笨和呆呆
阅读(21)
评论(0)
推荐(0)
2022年12月19日
seq2seq(encoder-decoder)框架理解
摘要: 该框架主要解决lstm不能处理变长时序问题,在负荷预测这类定长时序问题中,意义不大,经测试lstm200epochs能train完的,enc-dec要1500epochs 变长问题: 2句话为例:i am a boy——>我是一个男孩 I was a worker——>我过去是名工人 可以看出输入都
阅读全文
posted @ 2022-12-19 11:02 笨笨和呆呆
阅读(43)
评论(0)
推荐(0)
2022年12月16日
nn.Embedding
摘要:
阅读全文
posted @ 2022-12-16 11:24 笨笨和呆呆
阅读(49)
评论(0)
推荐(0)
2022年12月15日
RNN梯度消失原因本质,与MLP不是一个概念
摘要:
阅读全文
posted @ 2022-12-15 16:12 笨笨和呆呆
阅读(33)
评论(0)
推荐(0)
2022年12月14日
常见损失函数汇总
摘要: https://zhuanlan.zhihu.com/p/182983435
阅读全文
posted @ 2022-12-14 10:47 笨笨和呆呆
阅读(54)
评论(0)
推荐(0)
拉普拉斯分布
摘要: https://zhuanlan.zhihu.com/p/156234503
阅读全文
posted @ 2022-12-14 10:45 笨笨和呆呆
阅读(42)
评论(0)
推荐(0)
2022年12月12日
pytorch loss.backward()核心理解 和lstm中hidden的典型错误
摘要: X = torch.ones(2, 2, requires_grad=False) w = torch.ones(2, 2, requires_grad=True) c1 = X*w c1.backward() print(w.grad) # 会报错 c2 = c1 * X c2.backward(
阅读全文
posted @ 2022-12-12 23:59 笨笨和呆呆
阅读(123)
评论(0)
推荐(0)
Pytorch中的梯度知识总结
摘要: https://blog.csdn.net/qq_45724216/article/details/127645900 凡是requrie_grad=True的,loss.backward() 的时候都会计算grad,但是大部分人用不到中间产物(如果非要保存的话用retain_grad()),所以只
阅读全文
posted @ 2022-12-12 17:03 笨笨和呆呆
阅读(56)
评论(0)
推荐(0)
2022年12月9日
spyder 有时候plt.plot不出图
摘要: 脚本开始加上这句 %matplotlib inline
阅读全文
posted @ 2022-12-09 10:43 笨笨和呆呆
阅读(46)
评论(0)
推荐(0)
LSTM层输出中output和hidden
摘要:
阅读全文
posted @ 2022-12-09 09:19 笨笨和呆呆
阅读(13)
评论(0)
推荐(0)
上一页
1
···
19
20
21
22
23
24
25
26
27
···
68
下一页
公告