随笔分类 -  caffe

caffe设计网络教程(一)
摘要:假设现在我们要设计一个基于VGG的网络,主要考虑的问题是可否修改VGG类似于resnet那样,应该怎么修改?更具体来说,我们需要在VGG网络上考虑eltwise层,现在我们有三种方案,如下: 方案一:直接对相应层进行bn,之后加eltwise sum。 方案二:在进行bn层之前加kernel为1的卷 阅读全文
posted @ 2018-04-04 16:22 greathuman 阅读(485) 评论(0) 推荐(0)
caffe的python接口
摘要:python接口,我的理解主要是两个,一个是原来caffe官方给的,这里是接口介绍。另一个是SSD框架加的model_libs.py,主要是添加了一些base_network和一些相关的函数。这两个如果能够用得很好的话,兄弟,恭喜你!你已经精通caffe的python接口了。其实不用说的,这个接口很 阅读全文
posted @ 2018-03-26 20:16 greathuman 阅读(5454) 评论(0) 推荐(0)
caffe的特殊层
摘要:每次写博客都带有一定的目的,在我看来这是一个记录的过程,所以尽量按照循序渐进的顺序逐步写,前面介绍的CNN层应该是非常常用的,这篇博客介绍一下某些特殊的layer,但是由于特殊的layer都带有一定的目的所以根据项目是可以修改和添加的,后续保持更新。 permute layer:改变blob数组的o 阅读全文
posted @ 2018-03-23 14:59 greathuman 阅读(1982) 评论(0) 推荐(0)
Eltwise层解析
摘要:Concat层虽然利用到了上下文的语义信息,但仅仅是将其拼接起来,之所以能起到效果,在于它在不增加算法复杂度的情形下增加了channel数目。那有没有直接关联上下文的语义信息呢?答案是Eltwise层,被广泛使用,屡试不爽,并且我们常常拿它和Concat比较,所以我常常一起说这两个层。我们普遍认为, 阅读全文
posted @ 2018-03-23 10:31 greathuman 阅读(13532) 评论(1) 推荐(3)
slice层解析
摘要:如果说之前的Concat是将多个bottom合并成一个top的话,那么这篇博客的slice层则完全相反,是把一个bottom分解成多个top,这带来了一个问题,为什么要这么做呢?为什么要把一个低层的切分成多个高层的呢?自然有它的用途,大家想想,假如我们做的是多任务的问题,比如车牌检测、燃气表盘检测、 阅读全文
posted @ 2018-03-22 16:24 greathuman 阅读(4864) 评论(0) 推荐(1)
Concat层解析
摘要:Concat层的作用就是将两个及以上的特征图按照在channel或num维度上进行拼接,并没有eltwise层的运算操作,举个例子,如果说是在channel维度上进行拼接conv_9和deconv_9的话,首先除了channel维度可以不一样,其余维度必须一致(也就是num、H、W一致),这时候所做 阅读全文
posted @ 2018-03-21 15:17 greathuman 阅读(14811) 评论(3) 推荐(1)
深度学习的训练和调参
摘要:感慨一下,人工智能这个名字挺有意思,这段时间也不知咋回事,朋友圈里都是学人工智能的,什么python,tf.......还有很多大神在互联网上开讲,也是赚了一笔,如今看来,真是百花齐放,一派繁荣的景象啊,有好有坏,大多数也只是人工的智能,就好像今天要讲的训练和调参,千万不要以为随随便便就可以得到一个 阅读全文
posted @ 2018-03-21 10:08 greathuman 阅读(27809) 评论(2) 推荐(1)
反卷积Deconvolution
摘要:反卷积(转置卷积、空洞卷积(微步卷积))近几年用得较多,本篇博客主要是介绍一下反卷积,尤其是怎么计算反卷积(选择反卷积的相关参数) 图1 空洞卷积(微步卷积)的例子,其中下面的图是输入,上面的图是输出,显然这是一个upsampling的过程,我们也称为反卷积。 首先,既然本文题名为反卷积(Decon 阅读全文
posted @ 2018-03-09 18:10 greathuman 阅读(42074) 评论(2) 推荐(2)
Caffe的loss layer(转)
摘要:英文可查:地址 1.SoftmaxWithLoss 对一对多的分类任务计算多项逻辑斯蒂损失,并通过softmax传递预测值,来获得各类的概率分布。该层可以分解为SoftmaxLayer+MultinomialLogisticLossLayer,但它的梯度计算在数值上更为稳健。在测试时,该层可用Sof 阅读全文
posted @ 2018-03-08 16:17 greathuman 阅读(590) 评论(0) 推荐(0)