摘要: #torch.optim.SGD 常用参数列表: params 需要学习的参数 lr 学习率 momentum:冲量 加入冲量后权重更新公式由v=−dx∗lr+v变成v=−dx∗lr+v∗momemtum weight_decay:权重衰减 防止过拟合,原理见[这里](https://zhuanla 阅读全文
posted @ 2023-09-05 08:40 心比天高xzh 阅读(53) 评论(0) 推荐(0)