会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
不搞事情和咸鱼有什么区别
博客园
首页
新随笔
联系
管理
订阅
2018年8月4日
pytorch learning rate decay
摘要: 关于learning rate decay的问题,pytorch 0.2以上的版本已经提供了torch.optim.lr_scheduler的一些函数来解决这个问题。 我在迭代的时候使用的是下面的方法。 classtorch.optim.lr_scheduler.MultiStepLR(optimi
阅读全文
posted @ 2018-08-04 09:44 猪突猛进!!!
阅读(4765)
评论(0)
推荐(0)
公告