随笔分类 -  Machine Learning 2

该文被密码保护。
posted @ 2021-05-07 21:06 微信公众号--共鸣圈 阅读(0) 评论(0) 推荐(0)
摘要:假设 x 经过一番计算得到 y,那么 y.backward(w) 求的不是 y 对 x 的导数,而是 l = torch.sum(y*w) 对 x 的导数。w 可以视为 y 的各分量的权重,也可以视为遥远的损失函数 l 对 y 的偏导数(这正是函数说明文档的含义)。特别地,若 y 为标量,w 取默认 阅读全文
posted @ 2020-09-01 15:53 微信公众号--共鸣圈 阅读(282) 评论(0) 推荐(0)