上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 68 下一页
摘要: https://blog.csdn.net/qq_43705131/article/details/107965888 阅读全文
posted @ 2022-12-20 12:51 笨笨和呆呆 阅读(21) 评论(0) 推荐(0)
摘要: 该框架主要解决lstm不能处理变长时序问题,在负荷预测这类定长时序问题中,意义不大,经测试lstm200epochs能train完的,enc-dec要1500epochs 变长问题: 2句话为例:i am a boy——>我是一个男孩 I was a worker——>我过去是名工人 可以看出输入都 阅读全文
posted @ 2022-12-19 11:02 笨笨和呆呆 阅读(43) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2022-12-16 11:24 笨笨和呆呆 阅读(49) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2022-12-15 16:12 笨笨和呆呆 阅读(33) 评论(0) 推荐(0)
摘要: https://zhuanlan.zhihu.com/p/182983435 阅读全文
posted @ 2022-12-14 10:47 笨笨和呆呆 阅读(54) 评论(0) 推荐(0)
摘要: https://zhuanlan.zhihu.com/p/156234503 阅读全文
posted @ 2022-12-14 10:45 笨笨和呆呆 阅读(42) 评论(0) 推荐(0)
摘要: X = torch.ones(2, 2, requires_grad=False) w = torch.ones(2, 2, requires_grad=True) c1 = X*w c1.backward() print(w.grad) # 会报错 c2 = c1 * X c2.backward( 阅读全文
posted @ 2022-12-12 23:59 笨笨和呆呆 阅读(123) 评论(0) 推荐(0)
摘要: https://blog.csdn.net/qq_45724216/article/details/127645900 凡是requrie_grad=True的,loss.backward() 的时候都会计算grad,但是大部分人用不到中间产物(如果非要保存的话用retain_grad()),所以只 阅读全文
posted @ 2022-12-12 17:03 笨笨和呆呆 阅读(56) 评论(0) 推荐(0)
摘要: 脚本开始加上这句 %matplotlib inline 阅读全文
posted @ 2022-12-09 10:43 笨笨和呆呆 阅读(46) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2022-12-09 09:19 笨笨和呆呆 阅读(13) 评论(0) 推荐(0)
上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 68 下一页