随笔分类 -  deep learning

摘要:pytorch.gather eg 四个输出 分别为 1 1 3 3 if dim=0 3,4,1,2 阅读全文
posted @ 2023-01-13 14:45 夜未央111 阅读(21) 评论(0) 推荐(0)
摘要:logistic回归中 w权重矩阵为列向量,转置后为行向量 阅读全文
posted @ 2021-12-01 09:47 夜未央111 阅读(42) 评论(0) 推荐(0)
摘要:梯度下降法: w= w - α*dw (dw是损失函数J对w的导数) 在a点时 αdw时负数 w-αdw 一直减小到全局最优解 在b点同理, 损失函数为凸函数,则函数在一点用梯度下降法走到最低点的过程中,梯度一直减小到极值点(最值点)梯度为0,停止迭代; 所以损失函数一般为凸函数。 阅读全文
posted @ 2021-11-23 18:42 夜未央111 阅读(57) 评论(0) 推荐(0)