随笔分类 -  CNN

yolov3实践(一)
摘要:很多博友看了我的第一篇博客yolo类检测算法解析——yolo v3,对其有了一定的认识和了解,但是并没有贴出代码和运行效果,略显苍白。因此在把篇博客理论的基础上,造就了第一篇实践文章,也就是本文。只要读者有着强大的理论支撑,什么模型什么框架都是一样玩。所以老师又会跟你说哲学和科学、科学和技术存在如何 阅读全文
posted @ 2018-06-09 11:12 greathuman 阅读(18614) 评论(0) 推荐(2)
tensorflow的卷积和池化层(二):记实践之cifar10
摘要:在tensorflow中的卷积和池化层(一)和各种卷积类型Convolution这两篇博客中,主要讲解了卷积神经网络的核心层,同时也结合当下流行的Caffe和tf框架做了介绍,本篇博客将接着tensorflow中的卷积和池化层(一)的内容,继续介绍tf框架中卷积神经网络CNN的使用。 因此,接下来将 阅读全文
posted @ 2018-05-05 13:48 greathuman 阅读(6795) 评论(0) 推荐(2)
各种卷积类型Convolution
摘要:从最开始的卷积层,发展至今,卷积已不再是当初的卷积,而是一个研究方向。在反卷积这篇博客中,介绍了一些常见的卷积的关系,本篇博客就是要梳理这些有趣的卷积结构。 阅读本篇博客之前,建议将这篇博客结合在一起阅读,想必会有更深的理解。另外,不管是什么类型的卷积,我们都把它理解成一种运算操作。 Group c 阅读全文
posted @ 2018-04-24 13:21 greathuman 阅读(13146) 评论(0) 推荐(1)
caffe设计网络教程(一)
摘要:假设现在我们要设计一个基于VGG的网络,主要考虑的问题是可否修改VGG类似于resnet那样,应该怎么修改?更具体来说,我们需要在VGG网络上考虑eltwise层,现在我们有三种方案,如下: 方案一:直接对相应层进行bn,之后加eltwise sum。 方案二:在进行bn层之前加kernel为1的卷 阅读全文
posted @ 2018-04-04 16:22 greathuman 阅读(485) 评论(0) 推荐(0)
yolo类检测算法解析——yolo v3
摘要:每当听到有人问“如何入门计算机视觉”这个问题时,其实我内心是拒绝的,为什么呢?因为我们说的计算机视觉的发展史可谓很长了,它的分支很多,而且理论那是错综复杂交相辉映,就好像数学一样,如何学习数学?这问题似乎有点笼统、有点宽泛。所以我都会具体问问你想入门计算机视觉的哪个话题,只有顺着一个话题理论联合实际 阅读全文
posted @ 2018-03-27 21:10 greathuman 阅读(25747) 评论(3) 推荐(4)
caffe的特殊层
摘要:每次写博客都带有一定的目的,在我看来这是一个记录的过程,所以尽量按照循序渐进的顺序逐步写,前面介绍的CNN层应该是非常常用的,这篇博客介绍一下某些特殊的layer,但是由于特殊的layer都带有一定的目的所以根据项目是可以修改和添加的,后续保持更新。 permute layer:改变blob数组的o 阅读全文
posted @ 2018-03-23 14:59 greathuman 阅读(1982) 评论(0) 推荐(0)
Eltwise层解析
摘要:Concat层虽然利用到了上下文的语义信息,但仅仅是将其拼接起来,之所以能起到效果,在于它在不增加算法复杂度的情形下增加了channel数目。那有没有直接关联上下文的语义信息呢?答案是Eltwise层,被广泛使用,屡试不爽,并且我们常常拿它和Concat比较,所以我常常一起说这两个层。我们普遍认为, 阅读全文
posted @ 2018-03-23 10:31 greathuman 阅读(13532) 评论(1) 推荐(3)
slice层解析
摘要:如果说之前的Concat是将多个bottom合并成一个top的话,那么这篇博客的slice层则完全相反,是把一个bottom分解成多个top,这带来了一个问题,为什么要这么做呢?为什么要把一个低层的切分成多个高层的呢?自然有它的用途,大家想想,假如我们做的是多任务的问题,比如车牌检测、燃气表盘检测、 阅读全文
posted @ 2018-03-22 16:24 greathuman 阅读(4864) 评论(0) 推荐(1)
Concat层解析
摘要:Concat层的作用就是将两个及以上的特征图按照在channel或num维度上进行拼接,并没有eltwise层的运算操作,举个例子,如果说是在channel维度上进行拼接conv_9和deconv_9的话,首先除了channel维度可以不一样,其余维度必须一致(也就是num、H、W一致),这时候所做 阅读全文
posted @ 2018-03-21 15:17 greathuman 阅读(14811) 评论(3) 推荐(1)
深度学习的训练和调参
摘要:感慨一下,人工智能这个名字挺有意思,这段时间也不知咋回事,朋友圈里都是学人工智能的,什么python,tf.......还有很多大神在互联网上开讲,也是赚了一笔,如今看来,真是百花齐放,一派繁荣的景象啊,有好有坏,大多数也只是人工的智能,就好像今天要讲的训练和调参,千万不要以为随随便便就可以得到一个 阅读全文
posted @ 2018-03-21 10:08 greathuman 阅读(27809) 评论(2) 推荐(1)
反卷积Deconvolution
摘要:反卷积(转置卷积、空洞卷积(微步卷积))近几年用得较多,本篇博客主要是介绍一下反卷积,尤其是怎么计算反卷积(选择反卷积的相关参数) 图1 空洞卷积(微步卷积)的例子,其中下面的图是输入,上面的图是输出,显然这是一个upsampling的过程,我们也称为反卷积。 首先,既然本文题名为反卷积(Decon 阅读全文
posted @ 2018-03-09 18:10 greathuman 阅读(42074) 评论(2) 推荐(2)
Caffe的loss layer(转)
摘要:英文可查:地址 1.SoftmaxWithLoss 对一对多的分类任务计算多项逻辑斯蒂损失,并通过softmax传递预测值,来获得各类的概率分布。该层可以分解为SoftmaxLayer+MultinomialLogisticLossLayer,但它的梯度计算在数值上更为稳健。在测试时,该层可用Sof 阅读全文
posted @ 2018-03-08 16:17 greathuman 阅读(590) 评论(0) 推荐(0)