03 2018 档案
摘要:一、前向传播 在caffe中,卷积层做卷积的过程被转化成了由卷积核的参数组成的权重矩阵weights(简记为W)和feature map中的元素组成的输入矩阵(简记为Cin)的矩阵乘积W * Cin。在进行乘积之前,需要对卷积核的参数和feature map作处理,以得到W和Cin。 下面用一个例子
阅读全文
摘要:caffe中的网络结构是一层连着一层的,在相邻的两层中,可以认为前一层的输出就是后一层的输入,可以等效成如下的模型 可以认为输出top中的每个元素都是输出bottom中所有元素的函数。如果两个神经元之间没有连接,可以认为相应的权重为0。其实上图的模型只适用于全连接层,其他的如卷积层、池化层,x与y之
阅读全文
摘要:net_->ForwardBackward()方法在net.hpp文件中 首先进入Forward(&loss) net.cpp 接着进入*loss = ForwardFromTo(0, layers_.size() - 1)这句话 net.cpp 再进入Dtype layer_loss = laye
阅读全文
摘要:下面来看Solver<Dtype>::Solve(const char* resume_file) solver.cpp 下面先看Solve中的Restore(resume_file) solver.cpp 上面的RestoreSolverStateFromHDF5(state_filename)和
阅读全文

浙公网安备 33010602011771号