摘要: 关于learning rate decay的问题,pytorch 0.2以上的版本已经提供了torch.optim.lr_scheduler的一些函数来解决这个问题。 我在迭代的时候使用的是下面的方法。 classtorch.optim.lr_scheduler.MultiStepLR(optimi 阅读全文
posted @ 2018-08-04 09:44 猪突猛进!!! 阅读(4765) 评论(0) 推荐(0)