base_lr, blobs_lr

caffe里面,原来以为是不可以随便调整学习率的,现在看来是可以的。base_lr是适用于所有层的学习率,而针对单个层,可以通过增加两个blobs_lr,用来调整该层的学习率,为什么是两个呢,因为一个调整weight的学习率,一个是调整偏执b的学习率。那么该层的学习率就变成了,base_lr*blobs_lr,base_lr*blobs_lr了。太赞了,caffe的功能真的很强大,加强学习。

今天看了caffe的很多新功能,其实是之前就有的,只是一直不怎么熟悉而已。把VGG16层的配置文件详细读了一遍,发现很多地方原来都没有认真看过。

posted @ 2015-04-03 11:16  caoeryingzi  阅读(2086)  评论(0编辑  收藏  举报