摘要: 代码:https://github.com/liangX-box/pytorchReadLmdb.git 一. 处理好训练集和验证集后,通过caffe的convert_imageset生成lmdb: 1 /usr/softwares/caffe/build/tools/convert_imagese 阅读全文
posted @ 2019-11-21 14:20 无言独上博客 阅读(956) 评论(0) 推荐(0)
摘要: 一. 合并原因 一般的网络结构,卷积层后会跟batch norm层,在测试阶段: (1) 从参数的由来来讲,训练好的模型中的batch norm参数,是由训练集中每个batch的batch norm层的参数累加得到的; (2) 从功能来讲,batch norm做的工作是对batch数据做减均值除方差 阅读全文
posted @ 2019-11-19 17:34 无言独上博客 阅读(512) 评论(0) 推荐(0)
摘要: 一、batch norm层理解 batch norm原文:Batch Normalization: Accelerating deep network training by reducing internal covariate shift(sergey Ioffe, Christian szeg 阅读全文
posted @ 2019-10-23 15:05 无言独上博客 阅读(673) 评论(0) 推荐(0)
摘要: (1) focal loss <1> focal loss的函数形式为: (1) 其中,zk为softmax的输入,f(zk)为softmax的输出,-log(f(zk))为softmaxloss, alpha和gamma为focal loss超参。 <2> focal loss对其输入zj求导: 阅读全文
posted @ 2019-10-17 16:38 无言独上博客 阅读(1205) 评论(0) 推荐(0)
摘要: (1) softmax loss <1> softmax loss的函数形式为: (1) zi为softmax的输入,f(zi)为softmax的输出。 <2> softmax loss对其输入zj求导: (2) 如果j==k,则zk是变量,否则zj是变量。 和的导数等于导数的和,对和中某个元素求导 阅读全文
posted @ 2019-10-17 14:41 无言独上博客 阅读(374) 评论(0) 推荐(0)
摘要: (1) softmax函数 (1) 其中,zj 是softmax层的bottom输入, f(zj)是softmax层的top输出,C为该层的channel数。 (2) softmax_layer.cpp中的Reshape函数: (3) softmax_layer.cpp中的Forward_cpu函数 阅读全文
posted @ 2019-10-17 10:34 无言独上博客 阅读(547) 评论(0) 推荐(0)