摘要: 摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ github上的代码链接,求给星星:) "https://github.com/YihangLou/FasterRCNN Encapsulation Cpl 阅读全文
posted @ 2016-05-14 21:06 Hello~again 阅读(10554) 评论(43) 推荐(0) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 由于需要把FasterRCNN做的工程化,因此这里需要对Caffe进行封装。其实封装听起来感觉很高深的样子,其实就是将自己在caffe上再调用的接口做成一个动态库, 阅读全文
posted @ 2016-05-12 15:57 Hello~again 阅读(20242) 评论(20) 推荐(4) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ "https://github.com/YihangLou/fast rcnn train another dataset" 这是我在github上修改的几个... 阅读全文
posted @ 2015-10-24 13:33 Hello~again 阅读(52520) 评论(17) 推荐(2) 编辑
摘要: Fast RCNN训练自己的数据集 (2修改读写接口) 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ "https://github.com/YihangLou/fast rcnn train anot... 阅读全文
posted @ 2015-10-23 00:14 Hello~again 阅读(44247) 评论(27) 推荐(8) 编辑
摘要: 摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ github上的代码链接,求给星星:) "https://github.com/YihangLou/FasterRCNN Encapsulation Cpl 阅读全文
posted @ 2016-05-14 21:06 Hello~again 阅读(10554) 评论(43) 推荐(0) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 由于需要把FasterRCNN做的工程化,因此这里需要对Caffe进行封装。其实封装听起来感觉很高深的样子,其实就是将自己在caffe上再调用的接口做成一个动态库, 阅读全文
posted @ 2016-05-12 15:57 Hello~again 阅读(20242) 评论(20) 推荐(4) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ 因为利用Pyhon来做数据的预处理比较方便,因此在data_layer选择上,采用了MemoryDataLayer,可以比较方便的直接用Python 根据set_ 阅读全文
posted @ 2016-03-26 16:16 Hello~again 阅读(4644) 评论(3) 推荐(2) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ 一般我们在使用Caffe的时候,可能需要根据自己的任务需求添加一些自定义的Loss,当然这个Loss可以根据自己的需要来添加。比如在这里我添加的是triplet_ 阅读全文
posted @ 2016-03-10 10:33 Hello~again 阅读(8735) 评论(0) 推荐(1) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ Pooling 层一般在网络中是跟在Conv卷积层之后,做采样操作,其实是为了进一步缩小feature map,同时也能增大神经元的视野。在Caffe中,pool 阅读全文
posted @ 2016-02-23 21:31 Hello~again 阅读(13553) 评论(0) 推荐(1) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ NeuronLayer,顾名思义这里就是神经元,激活函数的相应层。我们知道在blob进入激活函数之前和之后他的size是不会变的,而且激活值也就是输出 $y$ 只 阅读全文
posted @ 2016-02-19 14:16 Hello~again 阅读(5122) 评论(0) 推荐(0) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ Vision_layer里面主要是包括了一些关于一些视觉上的操作,比如卷积、反卷积、池化等等。这里的类跟data layer一样好很多种继承关系。主要包括了这几... 阅读全文
posted @ 2016-01-23 23:30 Hello~again 阅读(20254) 评论(2) 推荐(3) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟data_layer相关的类 BaseDat... 阅读全文
posted @ 2016-01-23 13:10 Hello~again 阅读(14860) 评论(1) 推荐(1) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ layer这个类可以说是里面最终的一个基本类了,深度网络呢就是一层一层的layer,相互之间通过blob传输数据连接起来。首先layer必须要实现一个forwa... 阅读全文
posted @ 2016-01-22 23:48 Hello~again 阅读(11727) 评论(1) 推荐(2) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 看到SyncedMem就知道,这是在做内存同步的操作。这类个类的代码比较少,但是作用是非常明显的。文件对应着syncedmem.hpp,着syncedmem.c... 阅读全文
posted @ 2016-01-22 10:58 Hello~again 阅读(8668) 评论(2) 推荐(1) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 首先看到的是Blob这个类,Blob是作为Caffe中数据流通的一个基本类,网络各层之间的数据是通过Blob来传递的。这里整个代码是非常规范的,基本上条件编译,命... 阅读全文
posted @ 2016-01-21 21:24 Hello~again 阅读(36405) 评论(2) 推荐(12) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 这几种方法呢都是在求最优解中经常出现的方法,主要是应用迭代的思想来逼近。在梯度下降算法中,都是围绕以下这个式子展开: $$\frac {\partial}{\p... 阅读全文
posted @ 2016-01-16 22:01 Hello~again 阅读(23208) 评论(3) 推荐(4) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 以下部分代码是根据caffe的python接口,从一次forword中取出param和blob里面的卷积核 和响应的卷积图。 输入的测试图像 第一层的卷积... 阅读全文
posted @ 2016-01-15 22:40 Hello~again 阅读(16421) 评论(2) 推荐(3) 编辑
摘要: Caffe Python特征抽取 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ Caffe大家一般用到的深度学习平台都是这个,关于Caffe的训练通常一般都可以通过一些命令来执行,但是在deploy阶段,如... 阅读全文
posted @ 2015-12-26 19:43 Hello~again 阅读(12514) 评论(9) 推荐(3) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 目前呢,caffe,theano,torch是当下比较流行的Deep Learning的深度学习框架,楼主最近也在做一些与此相关的事情。在这里,我主要介绍一下如何... 阅读全文
posted @ 2015-12-11 13:38 Hello~again 阅读(30816) 评论(9) 推荐(2) 编辑
摘要: 以上是我上一篇文章中的代码实现,里面分别用了opencv中的SVM和LibSVM,opencv的SVM用起来更方便,但貌似内部其实也是基于Libsvm,同样的参数训练出来的结果是一致的,里面有Libsvm的调用过程,如果用libsvm需要在工程里面添加libsvm的源码文件分别是svm.h和svm.... 阅读全文
posted @ 2015-11-26 17:01 Hello~again 阅读(2156) 评论(2) 推荐(0) 编辑
摘要: 统计手写数字集的HOG特征 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/这篇文章是模式识别的小作业,利用svm实现Minist数据集手写体识别,在这里我实现了opencv中的svm和libsvm两个版本,供大... 阅读全文
posted @ 2015-11-26 16:51 Hello~again 阅读(4483) 评论(0) 推荐(1) 编辑
摘要: (转载请注明作者和出处 楼燚(yì)航的blog :http://www.cnblogs.com/louyihang loves baiyan/ 未经允许请勿用于商业用途) 由于目前DPM模型训练的代码没有C++版本,至少我没看见opencv ccv conrib等一些库中都没有看到相关训练的部... 阅读全文
posted @ 2015-11-15 00:54 Hello~again 阅读(3537) 评论(4) 推荐(0) 编辑
摘要: (转载请注明作者和出处 楼燚(yì)航的blog :http://www.cnblogs.com/louyihang loves baiyan/ 未经允许请勿用于商业用途) 本文主要是针对上一篇基于DPM的VOC release5的版本,matlab的版本进行训练。 训练自己的数据集主要是修改pa... 阅读全文
posted @ 2015-11-15 00:43 Hello~again 阅读(4978) 评论(7) 推荐(2) 编辑
摘要: (转载请注明作者和出处 楼燚(yì)航的blog :http://www.cnblogs.com/louyihang loves baiyan/ 未经允许请勿用于商业用途) DPM目前使非神经网络方法里面较好的目标检测程序,作者呢也是Fast RCNN的作者 Ross Girshick,真的是牛人... 阅读全文
posted @ 2015-11-12 13:11 Hello~again 阅读(4388) 评论(0) 推荐(0) 编辑