摘要: Pytorch的学习率调整策略通过torch.optim.lr_scheduler实现。 1. 等间隔调整学习率StepLR 等间隔调整学习率,通过设定调整间隔和倍率,阶段调整学习率 torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamm 阅读全文
posted @ 2022-01-20 11:02 Liang-ml 阅读(286) 评论(0) 推荐(0)