摘要: 有的时候需要我们通过一定机制来调整学习率,这个时候可以借助于torch.optim.lr_scheduler类来进行调整;一般地有下面两种调整策略:(通过两个例子来展示一下) 两种机制:LambdaLR机制和StepLR机制; (1)LambdaLR机制: optimizer_G = torch.o 阅读全文
posted @ 2019-07-29 11:24 outthinker 阅读(29590) 评论(0) 推荐(0)