会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
outthinker
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
26
27
28
29
30
31
下一页
2016年12月22日
caffe_实战之两个简单的例子(物体分类和人脸检测)
摘要: 一、物体分类: 这里使用的是caffe官网中自带的例子,我这里主要是对代码的解释~ 首先导入一些必要的库: out: out: probabilities and labels: Out[17]: [(0.3124361, 'n02123045 tabby, tabby cat'), (0.2379
阅读全文
posted @ 2016-12-22 11:37 outthinker
阅读(2942)
评论(0)
推荐(0)
2016年12月19日
《Caffe下跑AlxNet之数据处理过程》
摘要: 环境:Windows 最近用Caffe跑了一下AlxNet网络,现在总结一下数据处理部分:(处理过的数据打包链接:http://pan.baidu.com/s/1sl8M5ad 密码:ph1y) (1)获得数据集,途径有: 1.Benchmark(数据库) AFLW FDDB 2.最新论文(2016
阅读全文
posted @ 2016-12-19 11:40 outthinker
阅读(828)
评论(0)
推荐(0)
2016年12月17日
《A Convolutional Neural Network Cascade for Face Detection》
摘要: 文章链接: http://pan.baidu.com/s/1bQBJMQ 密码:4772 作者在这里提出了基于神经网络的Cascade方法,Cascade最早可追溯到Haar Feature提取时用到的Adaboost算法(参考这个博客:http://blog.csdn.net/zouxy09/ar
阅读全文
posted @ 2016-12-17 22:53 outthinker
阅读(1909)
评论(0)
推荐(0)
2016年12月13日
《Neural Network and Deep Learning》_chapter4
摘要: 《Neural Network and Deep Learning》_chapter4: A visual proof that neural nets can compute any function文章总结(前三章翻译在百度云里) 链接:http://neuralnetworksanddeepl
阅读全文
posted @ 2016-12-13 21:35 outthinker
阅读(1195)
评论(0)
推荐(0)
2016年12月12日
Andrew Ng在coursera上的ML课程_知识点笔记_(1)
摘要: 1.Feature Scaling(特征缩放): 如上图所示,x1是房屋面积,x2是房间个数,若不进行特征缩放,则代价函数J的曲线近似为一个瘦长的椭圆(我暂时这么理解,θ1和θ2分别是x1和x2的权值系数,而x2的特征向量值相较x1很小,则x1变化一个较小的量,在J的同一条相同的圆弧曲线上θ2就要变
阅读全文
posted @ 2016-12-12 10:44 outthinker
阅读(827)
评论(0)
推荐(0)
2016年12月6日
Windows+Caffe+VS2013+python接口配置过程
摘要: 前段时间在笔记本上配置了Caffe框架,中间过程曲曲折折,但由于懒没有将详细过程总结下来,这两天又在一台配置较高的台式机上配置了Caffe,配置时便非常后悔当初没有写到博客中去,现已配置好Caffe,故应当立即写到博客中去,不可再拖延~ 准备工具:Win7(64位);Caffe;vs2013;ana
阅读全文
posted @ 2016-12-06 20:41 outthinker
阅读(2766)
评论(2)
推荐(0)
2016年11月22日
卷积神经网络_(4)_caffe简介
摘要: 这里大致说一下caffe。caffe是伯里克利大学的贾杨清教授写的一个深度学习框架,使用C++编写的,但同时也提供python和matlab接口;组成部分主要有: (1)Blob:用来存储数据和梯度; (2)Layer:网络的层; (3)Net: 网络结构,即存储权值等参数; (4)Solver:存
阅读全文
posted @ 2016-11-22 10:46 outthinker
阅读(1566)
评论(0)
推荐(0)
卷积神经网络_(3)_几种简单训练技巧
摘要: 下面来介绍几种简单的训练技巧: 1.首先说一下filter(感受野)的概念:感受野的大小即特征图中的某一单元是从原始输入图像中多大的一块区域中提取的特征; 如上图,第一次卷积后得到的特征图中,每一个小单元的感受野大小为3*3,而第二次卷积后特征图中的每一个小单元对应的感受野大小为5*5,以此类推,如
阅读全文
posted @ 2016-11-22 10:34 outthinker
阅读(6211)
评论(0)
推荐(0)
2016年11月21日
卷积神经网络_(2)_分类与回归_几类经典网络简介
摘要: 1.经典神经网络有:2012年提出的AlexNet和2014年提出的VGGNet,结构图分别如下: 2.分类与回归: (1)分类(classfication):就是经过经过一系列的卷积层和池化层之后,再经过全连接层得到样本属于每个类的得分,再用比如softmax分类其对其进行分类; (2)回归(re
阅读全文
posted @ 2016-11-21 17:55 outthinker
阅读(8069)
评论(0)
推荐(0)
2016年11月17日
卷积神经网络_(1)卷积层和池化层学习
摘要: 卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL-FC (1)卷积层:用它来进行特征提取,如下: 输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入
阅读全文
posted @ 2016-11-17 21:26 outthinker
阅读(113130)
评论(6)
推荐(9)
上一页
1
···
26
27
28
29
30
31
下一页
公告