摘要: caffe里面,原来以为是不可以随便调整学习率的,现在看来是可以的。base_lr是适用于所有层的学习率,而针对单个层,可以通过增加两个blobs_lr,用来调整该层的学习率,为什么是两个呢,因为一个调整weight的学习率,一个是调整偏执b的学习率。那么该层的学习率就变成了,base_lr*blo... 阅读全文
posted @ 2015-04-03 11:16 caoeryingzi 阅读(2086) 评论(0) 推荐(0) 编辑