摘要: class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)参数:params (iterable) – 待优化参数的iterable或者是定义了参数组的dictlr (float, 可 阅读全文
posted @ 2022-03-31 09:55 多发Paper哈 阅读(169) 评论(0) 推荐(0) 编辑
摘要: 随机梯度下降法 $\theta_{t} \leftarrow \theta_{t-1}-\alpha g_{t}$ Code: optimzer = torch.optim.SGD(model.parameters(),lr = 0.001) 权重衰减 $\theta_{t} \leftarrow( 阅读全文
posted @ 2022-03-31 09:49 多发Paper哈 阅读(1689) 评论(0) 推荐(0) 编辑
Live2D