会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Keep Calm and Carry On
博客园
首页
新随笔
联系
订阅
管理
[置顶]
faster_rcnn c++版本的 caffe 封装,动态库(2)
摘要: 摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ github上的代码链接,求给星星:) "https://github.com/YihangLou/FasterRCNN Encapsulation Cpl
阅读全文
posted @ 2016-05-14 21:06 Hello~again
阅读(10693)
评论(43)
推荐(0)
[置顶]
faster_rcnn c++版本的 caffe 封装(1)
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 由于需要把FasterRCNN做的工程化,因此这里需要对Caffe进行封装。其实封装听起来感觉很高深的样子,其实就是将自己在caffe上再调用的接口做成一个动态库,
阅读全文
posted @ 2016-05-12 15:57 Hello~again
阅读(20856)
评论(20)
推荐(4)
[置顶]
Fast RCNN 训练自己的数据集(3训练和检测)
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ "https://github.com/YihangLou/fast rcnn train another dataset" 这是我在github上修改的几个...
阅读全文
posted @ 2015-10-24 13:33 Hello~again
阅读(53571)
评论(17)
推荐(2)
[置顶]
Fast RCNN 训练自己数据集 (2修改数据读取接口)
摘要: Fast RCNN训练自己的数据集 (2修改读写接口) 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ "https://github.com/YihangLou/fast rcnn train anot...
阅读全文
posted @ 2015-10-23 00:14 Hello~again
阅读(45241)
评论(27)
推荐(8)
2016年3月26日
Caffe Python MemoryDataLayer Segmentation Fault
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ 因为利用Pyhon来做数据的预处理比较方便,因此在data_layer选择上,采用了MemoryDataLayer,可以比较方便的直接用Python 根据set_
阅读全文
posted @ 2016-03-26 16:16 Hello~again
阅读(4731)
评论(3)
推荐(2)
2016年3月10日
Caffe 单独测试添加的layer
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ 一般我们在使用Caffe的时候,可能需要根据自己的任务需求添加一些自定义的Loss,当然这个Loss可以根据自己的需要来添加。比如在这里我添加的是triplet_
阅读全文
posted @ 2016-03-10 10:33 Hello~again
阅读(8791)
评论(0)
推荐(1)
2016年2月23日
Caffe源码解析7:Pooling_Layer
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ Pooling 层一般在网络中是跟在Conv卷积层之后,做采样操作,其实是为了进一步缩小feature map,同时也能增大神经元的视野。在Caffe中,pool
阅读全文
posted @ 2016-02-23 21:31 Hello~again
阅读(13682)
评论(0)
推荐(1)
2016年2月19日
Caffe源码解析6:Neuron_Layer
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ NeuronLayer,顾名思义这里就是神经元,激活函数的相应层。我们知道在blob进入激活函数之前和之后他的size是不会变的,而且激活值也就是输出 $y$ 只
阅读全文
posted @ 2016-02-19 14:16 Hello~again
阅读(5214)
评论(0)
推荐(0)
2016年1月23日
Caffe源码解析5:Conv_Layer
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ Vision_layer里面主要是包括了一些关于一些视觉上的操作,比如卷积、反卷积、池化等等。这里的类跟data layer一样好很多种继承关系。主要包括了这几...
阅读全文
posted @ 2016-01-23 23:30 Hello~again
阅读(20448)
评论(2)
推荐(3)
Caffe源码解析4: Data_layer
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟data_layer相关的类 BaseDat...
阅读全文
posted @ 2016-01-23 13:10 Hello~again
阅读(15070)
评论(1)
推荐(1)
2016年1月22日
Caffe源码解析3:Layer
摘要: 转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang loves baiyan/ layer这个类可以说是里面最终的一个基本类了,深度网络呢就是一层一层的layer,相互之间通过blob传输数据连接起来。首先layer必须要实现一个forwa...
阅读全文
posted @ 2016-01-22 23:48 Hello~again
阅读(11836)
评论(1)
推荐(2)
Caffe源码解析2:SycedMem
摘要: 转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang loves baiyan/ 看到SyncedMem就知道,这是在做内存同步的操作。这类个类的代码比较少,但是作用是非常明显的。文件对应着syncedmem.hpp,着syncedmem.c...
阅读全文
posted @ 2016-01-22 10:58 Hello~again
阅读(9285)
评论(2)
推荐(1)
下一页
公告