caffe源码 池化层 反向传播
摘要:图示池化层(前向传播) 池化层其实和卷积层有点相似,有个类似卷积核的窗口按照固定的步长在移动,每个窗口做一定的操作,按照这个操作的类型可以分为两种池化层: MAC (max pooling)在窗口中取最大值当做结果 AVG (average pooling)在窗口中取平均值当做结果 池化层的反向传播
阅读全文
posted @
2017-10-18 12:54
ERKE
阅读(1230)
推荐(0)
caffe源码 理解链式法则
摘要:网络结构 首先我们抽象理解下一个网络结构是怎样的,如下图所示 F1,F2,F3为某种函数 input为输入数据,output为输出数据 X1,X2为为中间的层的输入输出数据 总体来说有以下关系 X1 = F(input) X2 = F1(X1) output = F2(X2) 在训练过程中outpu
阅读全文
posted @
2017-10-06 00:09
ERKE
阅读(284)
推荐(0)
caffe源码 全连接层
摘要:图示全连接层 如上图所示,该全链接层输入n * 4,输出为n * 2,n为batch 该层有两个参数W和B,W为系数,B为偏置项 该层的函数为F(x) = W*x + B,则W为4 * 2的矩阵,B 为 1 * 2 的矩阵 从公式理解全连接层 假设第N层为全连接层,输入为Xn,输出为Xn+1,其他与
阅读全文
posted @
2017-10-06 00:01
ERKE
阅读(801)
推荐(0)
caffe源码 卷积层
摘要:通俗易懂理解卷积 图示理解神经网络的卷积 input: 3 * 5 * 5 (c * h * w) pading: 1 步长: 2 卷积核: 2 * 3 * 3 * 3 ( n * c * k * k ) output: 2 * 3 * 3 ( c * h * w ) input: 3 * 5 *
阅读全文
posted @
2017-10-05 23:58
ERKE
阅读(536)
推荐(0)