上一页 1 ··· 20 21 22 23 24
摘要: Spatial Pyramid Pooling in Deep Convolutional Networks for Visual RecognitionKaimingHe, Xiangyu Zhang, Shaoqing Ren, and Jian SunThe13th European Conf... 阅读全文
posted @ 2014-09-16 15:45 caoeryingzi 阅读(5430) 评论(2) 推荐(0) 编辑
摘要: 二类分类器svm 的loss function 是 hinge loss:L(y)=max(0,1-t*y),t=+1 or -1,是标签属性. 对线性svm,y=w*x+b,其中w为权重,b为偏置项,在实际优化中,w,b是待优化的未知,通过优化损失函数,使得loss function最小,得到优化... 阅读全文
posted @ 2014-09-15 12:47 caoeryingzi 阅读(781) 评论(0) 推荐(0) 编辑
摘要: 最近在实现一个object的算法,但是提取样本什么的要自己实现,于是想到用matlab,这个真是越用越觉得好用啊。读xml文件,本来是之前用java环境下读的,现在想到matlab下,于是乎,找matlab的嵌入函数。原来matlab是引用了第三方oracle的包,基本上里面的函数都是可以用的。参考可见:http://docs.oracle.com/javase/6/docs/api/org/w3c/dom/Node.html仔细读了一下,解决了不少问题。另外,最近看到caffe更新了不少,算是更方便了。不过更新过程中依赖的包变化了,尤其是python相关的包。现在看来,当初安装包时,真应该用 阅读全文
posted @ 2014-02-13 13:49 caoeryingzi 阅读(257) 评论(0) 推荐(0) 编辑
摘要: deep learning,这几年有多火!!imagenet比赛,大家今年都是基于去年的基础上改进和应用的,效果比去年提升当然。在deep learning方向,hinton, benjio, lecun, andrew等这些人算是武林中的掌门人吧。hinton提出来RBM,让深层神经网络有可以训练的机会了。但是,现在大家都不用RBM,因为用梯度下降也能达到很好的效果。说到梯度下降,我觉得这个要说andrew,他们那里对sgd做了不少工作。hinton组的应用做的是非常好的,所以人家被google收购了??benjio,真是善人啊,写了不少review类的东西,当然人家工作做得很好,也就是因为 阅读全文
posted @ 2013-11-27 13:09 caoeryingzi 阅读(439) 评论(0) 推荐(0) 编辑
摘要: 接着我的微博继续八卦吧微博里问了几个人,关于deep learning和cnn的区别,有不少热心网友给了回答,非常感谢。结合我听课和看文章的理解,我大胆大概总结一下:在上世纪90年代,neural network火了后就不再火了,听说,在投稿到nips时,如果你的关键词是neural network等,会大大降低你的文章的接受率,而如果是bayesian parameters or svm等,就会提高接受率,云云,但是在06年左右,neural network又开始出来闹腾了。其实,之前neural network之所以偃旗息鼓了,主要是因为深层神经网络中,使用BP进行训练,是走不动了,层一深 阅读全文
posted @ 2013-11-19 09:45 caoeryingzi 阅读(351) 评论(0) 推荐(0) 编辑
摘要: 最近不小心又赶了一下时髦,在做deep learning。今天去听了复旦吴老师的课程,感觉吴老讲解的还是很清晰的。上午刚看过cnn,下午讲解的就是这章,相对来说,我听着给了很多启发。 阅读全文
posted @ 2013-11-08 21:10 caoeryingzi 阅读(240) 评论(0) 推荐(0) 编辑
上一页 1 ··· 20 21 22 23 24