摘要: 1. 无脑Adam 它的默认初始学习率是0.001,但是发现设置为0.0002效果很好 注意记录loss的时候最好把cross-entropy和regularization的loss分来记录,同时对比,最好是刚开始时两个方面的loss都在下降,不要说一开始一直都是regularization los 阅读全文
posted @ 2018-01-18 10:16 Lainey❤ 阅读(534) 评论(0) 推荐(0)