08 2017 档案
摘要:老早就想买这本“西瓜书”好好看看关于机器学习的知识了,正直“双11”京东VS天猫,然后在京东上买了。 以前从没有写读书笔记的习惯,所以看了一本忘了一本。。。都说看书是输入,但是只输入知识还不行,还要有输出。推荐购买一本周志华的西瓜书,国内难得的机器学习书籍,良心之作!关键词:学习算法...
阅读全文
摘要:最近准备用Resnet来解决问题,于是重读Resnet的paper 《Deep Residual Learning for Image Recognition》, 这是何恺明在2016-CVPR上发表的一篇paper,在2015年12月已经发布在arXiv上,并且用文中所述的网络在 ...
阅读全文
摘要:在写blog时,想高亮某些字,但是发现markdown更改字体颜色不像word里那么方便,于是查了一下,要用一下代码进行更改字体颜色,还可以更改字体大小,还有字体格式 你的内容 更改语法有: color=#0099ff 更改字体颜色face="黑体" 更改字体size...
阅读全文
摘要:看到一篇将如何计算caffemodel大小的blog,感觉对理解模型大小很有帮助. 原文地址:http://blog.csdn.net/u014696921/article/details/52413561模型参数很大一部分在于全连接层,而全连接层的参数 取决于全连接层的神经元个数 ...
阅读全文
摘要:最近想统计word文档中的一些信息,人工统计的话。。。三天三夜吧 python 不愧是万能语言,发现有一个包叫做 docx,非常好用,具体查看官方文档:https://python-docx.readthedocs.io/en/latest/index.html (v0.8.6)还有...
阅读全文
摘要:良好代码习惯培训课节选(2017年8月14日 晚):推荐的书籍:《Clean Code 》,代码一个变量多次赋值随手变量命名重复代码magic number封装
阅读全文
摘要:Self-Normalizing Neural Networks ,长达93页的附录足以成为吸睛的地方(给人感觉很厉害), 此paper提出了新的激活函数,称之为 SELUs ,其具有normalization的功能.给人感觉只是在全连接层有效果,在CNN和RNN中貌似没有提及有效果...
阅读全文
摘要:统计学中,在探讨 不确定性(概率) 这件事时分两派:频率学派和贝叶斯学派。 频率学派认为概率是事件在长时间内发生的频率,是固定的。(比如我们若何得知抛一枚硬币出现正面的概率是0.5,这是通过抛了好多好多次之后,我们统计正面出现频率发现是0.5,那就认为抛一枚硬币出现正面的概率是0.5...
阅读全文
摘要:Densely Connected Convolutional Networks,CVPR-2017-best paper之一(共两篇,另外一篇是apple关于GAN的paper),早在去年八月 DenseNets的paper就发布在arXiv上了。 就CNN的发展来...
阅读全文
摘要:Perceptual Generative Adversarial Networks for Small Object Detection 2017CVPR 新鲜出炉的paper,这是针对small object detection的一篇文章,采用PGAN来提升small objec...
阅读全文
摘要:01-learning-Lenet, 主要讲的是 如何用python写一个Lenet,以及用来对手写体数据进行分类(Mnist)。从此教程可以知道如何用python写prototxt,知道如何单步训练网络,以及采用单步训练的方法来获取每一步训练的loss和accuracy,用来绘制曲...
阅读全文
摘要:分析caffe源码,看首先看caffe.proto,是明智的选择。好吧,我不是创造者,只是搬运工。原文地址:http://blog.csdn.net/qq_16055159/article/details/45115359 引言要看caffe源码,我认为首先应该看的就是caffe.p...
阅读全文
浙公网安备 33010602011771号