摘要:        
class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)参数:params (iterable) – 待优化参数的iterable或者是定义了参数组的dictlr (float, 可    阅读全文
posted @ 2022-03-31 09:55
别关注我了,私信我吧
阅读(235)
评论(0)
推荐(0)
        
            
        
        
摘要:        
随机梯度下降法 $\theta_{t} \leftarrow \theta_{t-1}-\alpha g_{t}$ Code: optimzer = torch.optim.SGD(model.parameters(),lr = 0.001) 权重衰减 $\theta_{t} \leftarrow(    阅读全文
posted @ 2022-03-31 09:49
别关注我了,私信我吧
阅读(2269)
评论(0)
推荐(0)
        

浙公网安备 33010602011771号