04 2017 档案

python 和 matlab的caffe读数据细节
摘要:(1).prototxt中的输入表示一样,如 dim: 10 dim: 3 dim: 227 dim: 227 (2)代码喂入数据不一样: python: input_blob = np.zeros((config.batchsize, 3, config.crop_h, config.crop_w 阅读全文

posted @ 2017-04-26 16:35 一动不动的葱头 阅读(1154) 评论(0) 推荐(0)

batch normalization在测试时的问题
摘要:验证: 在测试时可以一张图,但设置use_global_stats:true,已经验证,第一台4gpu上,路径:/home/guangcong/projects/unlabeled-video/train-video-tracking-demo1.3-5.1, 实验一、设置conifg.batchs 阅读全文

posted @ 2017-04-26 10:39 一动不动的葱头 阅读(2995) 评论(0) 推荐(0)

python loss layer: does not need backward computation?
摘要:set layer parameters: loss_weight:1 阅读全文

posted @ 2017-04-18 15:37 一动不动的葱头 阅读(1950) 评论(0) 推荐(1)

deconvolution layer parameter setting
摘要:reference: 1. Paper describes initializing the deconv layer with bilinear filter coefficients and train them. But in the provided train/val.prototxt, 阅读全文

posted @ 2017-04-13 09:58 一动不动的葱头 阅读(482) 评论(0) 推荐(0)

dlmread matlab
摘要:读逗号文件 阅读全文

posted @ 2017-04-07 09:20 一动不动的葱头 阅读(879) 评论(0) 推荐(0)

概率图模型课本笔记(五)
摘要:2006年以前的一些经典的网络及之间的区别: 1.自编码器: 受限玻尔兹曼堆叠+反向对称堆叠 2.深度信念网络: 受限玻尔兹曼堆叠+睡醒算法(生成模型) 受限玻尔兹曼堆叠+有监督算法,如反向传播(判别模型) 3.深层玻尔兹曼机器: 是一种具备多层结构的无向图模型,不过像受限玻尔兹曼机一样,深层玻尔兹 阅读全文

posted @ 2017-04-03 18:53 一动不动的葱头 阅读(244) 评论(0) 推荐(0)

概率图模型课本笔记(四)
摘要:先说一个关系: 概率图模型 >玻尔兹曼机器 >受限玻尔兹曼机器 玻尔兹曼机器是一种特殊的概率图模型,其特殊体现在: (1)二值的 (2)从定义能量开始,能量 >概率 (3)两种区分的节点v,h,共nv+nh个,状态有2^(nv+nh)个,分析时根据每个状态的翻转会带来的能量减少。故有2^(nv+nh 阅读全文

posted @ 2017-04-03 12:03 一动不动的葱头 阅读(579) 评论(0) 推荐(0)

导航