会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
无言独上博客
博客园
首页
新随笔
联系
订阅
管理
2019年11月21日
pytorch调用caffe的lmdb
摘要: 代码:https://github.com/liangX-box/pytorchReadLmdb.git 一. 处理好训练集和验证集后,通过caffe的convert_imageset生成lmdb: 1 /usr/softwares/caffe/build/tools/convert_imagese
阅读全文
posted @ 2019-11-21 14:20 无言独上博客
阅读(956)
评论(0)
推荐(0)
2019年11月19日
caffe中融合convolution layer和batch norm layer
摘要: 一. 合并原因 一般的网络结构,卷积层后会跟batch norm层,在测试阶段: (1) 从参数的由来来讲,训练好的模型中的batch norm参数,是由训练集中每个batch的batch norm层的参数累加得到的; (2) 从功能来讲,batch norm做的工作是对batch数据做减均值除方差
阅读全文
posted @ 2019-11-19 17:34 无言独上博客
阅读(512)
评论(0)
推荐(0)
2019年10月23日
batch norm理解和caffe中batch norm层阅读
摘要: 一、batch norm层理解 batch norm原文:Batch Normalization: Accelerating deep network training by reducing internal covariate shift(sergey Ioffe, Christian szeg
阅读全文
posted @ 2019-10-23 15:05 无言独上博客
阅读(673)
评论(0)
推荐(0)
2019年10月17日
focal loss公式推导和源码阅读
摘要: (1) focal loss <1> focal loss的函数形式为: (1) 其中,zk为softmax的输入,f(zk)为softmax的输出,-log(f(zk))为softmaxloss, alpha和gamma为focal loss超参。 <2> focal loss对其输入zj求导:
阅读全文
posted @ 2019-10-17 16:38 无言独上博客
阅读(1205)
评论(0)
推荐(0)
caffe中softmax loss源码阅读
摘要: (1) softmax loss <1> softmax loss的函数形式为: (1) zi为softmax的输入,f(zi)为softmax的输出。 <2> softmax loss对其输入zj求导: (2) 如果j==k,则zk是变量,否则zj是变量。 和的导数等于导数的和,对和中某个元素求导
阅读全文
posted @ 2019-10-17 14:41 无言独上博客
阅读(374)
评论(0)
推荐(0)
caffe中softmax源码阅读
摘要: (1) softmax函数 (1) 其中,zj 是softmax层的bottom输入, f(zj)是softmax层的top输出,C为该层的channel数。 (2) softmax_layer.cpp中的Reshape函数: (3) softmax_layer.cpp中的Forward_cpu函数
阅读全文
posted @ 2019-10-17 10:34 无言独上博客
阅读(547)
评论(0)
推荐(0)
公告