11 2017 档案

lr_mult
摘要:lr_mult:学习率系数 放置在param{}中 该系数用来控制学习率,在进行训练过程中,该层参数以该系数乘solver.prototxt配置文件中的base_lr的值为学习率 即学习率=lr_mult*base_lr 如果该层在结构配置文件中有两个lr_mult,则第一个表示权值学习率系数,第二 阅读全文

posted @ 2017-11-17 16:23 MissSimple 阅读(353) 评论(0) 推荐(0)

caffe python layer
摘要:Layer实际上定义了Layer的基本操作,即初始化层、前向传播和反向传播。在前向传播中根据bottom blob得到top blob,反向传播则根据top反传到bottom。而且在前传的时候还可以计算loss,一般来说只有最后一层才会计算loss,虽然每个层都有计算loss的功能。Layer类在没 阅读全文

posted @ 2017-11-16 11:50 MissSimple 阅读(1627) 评论(0) 推荐(0)

Deconvolution与Upsampling的区别
摘要:上采样就是把[W,H]大小的feature map扩大为[nW,nH]尺寸大小,其中n为上采样倍数。那么可以很容易的想到我们可以在扩大的feature map上每隔n个位置填补原feature map中对应位置的值。但是剩余的那些位置怎么办呢? deconv操作是把剩余位置填0,然后这个大featu 阅读全文

posted @ 2017-11-14 21:19 MissSimple 阅读(4104) 评论(0) 推荐(1)

导航