会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
猪的饲养员
2017年12月18日
深度拾遗(07) - 卷积层/池化层/全连接层
摘要: 在卷积神经网络尚未火热的年代,人们使用haar/lbp + adaboost级连的组合方式检测人脸,hog+svm的组合方式检测行人。这种传统的目标检测方法一个认知上的优势就是: 模块的功能明确,划分得很清晰,符合人们的理解方式。其中,haar,lbp,hog等手工设计的特征提取算子用于提取特征,a
阅读全文
posted @ 2017-12-18 12:19 猪的饲养员
阅读(706)
评论(0)
推荐(0)
深度拾遗(06) - 1X1卷积/global average pooling
摘要: 什么是1X1卷积 1 1的卷积就是对上一层的多个feature channels线性叠加,channel加权平均。 只不过这个组合系数恰好可以看成是一个1 1的卷积。这种表示的好处是,完全可以回到模型中其他常见N N的框架下,不用定义新的层。 比如上一层通过100个卷积核得到了 W H 100的数据
阅读全文
posted @ 2017-12-18 10:56 猪的饲养员
阅读(589)
评论(0)
推荐(0)
非平衡数据处理
摘要: 在正负样本都非常之少的情况下,应该采用数据合成的方式; 在负样本足够多,正样本非常之少且比例及其悬殊的情况下,应该考虑一分类方法; 在正负样本都足够多且比例不是特别悬殊的情况下,应该考虑采样或者加权的方法。 采样和加权在数学上是等价的,但实际应用中效果却有差别。尤其是采样了诸如Random Fore
阅读全文
posted @ 2017-12-18 10:48 猪的饲养员
阅读(170)
评论(0)
推荐(0)
深度拾遗(05) - 优化算法/学习率衰减/局部最优
摘要: SGD Momentum RMSprop Adam SGD $g_t=\nabla_{\theta_{t 1}}{f(\theta_{t 1})}$ $\Delta{\theta_t}= \eta g_t$ 其中,$\eta$是学习率,$g_t$是梯度 SGD完全依赖于当前batch的梯度,所以$\
阅读全文
posted @ 2017-12-18 10:37 猪的饲养员
阅读(504)
评论(0)
推荐(0)
深度拾遗(00) - 为什么需要深度?
摘要: 1. 通过深层神经网络首先会选取一些边缘信息(卷积中的核只有3X3 5X5非常小),总之是一些边角之类的低层信息(边缘信息是为了将要观察的事物与周围环境分割开来) 2. 随着网络深度的增加,卷积核的有效感受野越来越大,也就意味着高层的卷积核能够覆盖更大尺度上的特征 例如CNN CNN就是尺度上不断降
阅读全文
posted @ 2017-12-18 09:57 猪的饲养员
阅读(145)
评论(0)
推荐(0)
导航
博客园
首页
新随笔
联系
订阅
管理
公告