摘要: 摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ github上的代码链接,求给星星:) "https://github.com/YihangLou/FasterRCNN Encapsulation Cpl阅读全文
posted @ 2016-05-14 21:06 Hello~again 阅读(6734) 评论(41) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 由于需要把FasterRCNN做的工程化,因此这里需要对Caffe进行封装。其实封装听起来感觉很高深的样子,其实就是将自己在caffe上再调用的接口做成一个动态库,阅读全文
posted @ 2016-05-12 15:57 Hello~again 阅读(12391) 评论(19) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ "https://github.com/YihangLou/fast rcnn train another dataset" 这是我在github上修改的几个...阅读全文
posted @ 2015-10-24 13:33 Hello~again 阅读(22463) 评论(16) 编辑
摘要: Fast RCNN训练自己的数据集 (2修改读写接口) 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ "https://github.com/YihangLou/fast rcnn train anot...阅读全文
posted @ 2015-10-23 00:14 Hello~again 阅读(23217) 评论(25) 编辑
摘要: 摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ github上的代码链接,求给星星:) "https://github.com/YihangLou/FasterRCNN Encapsulation Cpl阅读全文
posted @ 2016-05-14 21:06 Hello~again 阅读(6733) 评论(41) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 由于需要把FasterRCNN做的工程化,因此这里需要对Caffe进行封装。其实封装听起来感觉很高深的样子,其实就是将自己在caffe上再调用的接口做成一个动态库,阅读全文
posted @ 2016-05-12 15:57 Hello~again 阅读(12391) 评论(19) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ 因为利用Pyhon来做数据的预处理比较方便,因此在data_layer选择上,采用了MemoryDataLayer,可以比较方便的直接用Python 根据set_阅读全文
posted @ 2016-03-26 16:16 Hello~again 阅读(2338) 评论(1) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ 一般我们在使用Caffe的时候,可能需要根据自己的任务需求添加一些自定义的Loss,当然这个Loss可以根据自己的需要来添加。比如在这里我添加的是triplet_阅读全文
posted @ 2016-03-10 10:33 Hello~again 阅读(5332) 评论(0) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ Pooling 层一般在网络中是跟在Conv卷积层之后,做采样操作,其实是为了进一步缩小feature map,同时也能增大神经元的视野。在Caffe中,pool阅读全文
posted @ 2016-02-23 21:31 Hello~again 阅读(8253) 评论(0) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ NeuronLayer,顾名思义这里就是神经元,激活函数的相应层。我们知道在blob进入激活函数之前和之后他的size是不会变的,而且激活值也就是输出 $y$ 只阅读全文
posted @ 2016-02-19 14:16 Hello~again 阅读(3139) 评论(0) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ Vision_layer里面主要是包括了一些关于一些视觉上的操作,比如卷积、反卷积、池化等等。这里的类跟data layer一样好很多种继承关系。主要包括了这几...阅读全文
posted @ 2016-01-23 23:30 Hello~again 阅读(10653) 评论(2) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟data_layer相关的类 BaseDat...阅读全文
posted @ 2016-01-23 13:10 Hello~again 阅读(8115) 评论(0) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ layer这个类可以说是里面最终的一个基本类了,深度网络呢就是一层一层的layer,相互之间通过blob传输数据连接起来。首先layer必须要实现一个forwa...阅读全文
posted @ 2016-01-22 23:48 Hello~again 阅读(6194) 评论(0) 编辑
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 看到SyncedMem就知道,这是在做内存同步的操作。这类个类的代码比较少,但是作用是非常明显的。文件对应着syncedmem.hpp,着syncedmem.c...阅读全文
posted @ 2016-01-22 10:58 Hello~again 阅读(4857) 评论(2) 编辑