会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Arjen_Z
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
2018年11月5日
卷积神经网路
摘要: 卷积层和池化层 与神经网络相比,卷积神经网络多了卷积层和池化层,基本顺序为data-conv-ReLU-Pooling-FC(全联接层)-s 一、卷积神经网络的权重共享 经典神经网络:全连接,即每个神经元都与每一个数据有对应的参数; 卷积神经网络是权重共享的,就是得到的特征图的每个像素点都是原图的一
阅读全文
posted @ 2018-11-05 23:11 zarjen
阅读(291)
评论(0)
推荐(0)
2018年11月2日
神经网络框架
摘要: 一、激活函数 线性操作分类能力不强,而非线性表达可以分开数据。 神经网络中隐层就是增加了激活函数,使得神经网络表达出更强大的效果。 Sigmoid可作为激活函数,但容易引起梯度消失(导数趋近于0)。 max(0,x)就是ReLU激活函数,可以解决梯度消失问题,导数简单,已经常用的神经网络激活函数。
阅读全文
posted @ 2018-11-02 11:29 zarjen
阅读(490)
评论(0)
推荐(0)
2018年10月31日
最优化-梯度下降算法-前向传播-反向传播
摘要: 一、前向传播:通过一组w参数得到一组得分值f(x),再做e^x再归一化,再到Loss值。 Bachsize是一次取2的整数倍数(32,64,128)张图片做一次迭代 学习率:过大会来回震荡,找不到最小值;太小,迭代次数过大,效率低。 二、反向传播 由Loss值一步一步往回传,更新权重参数。 先算z对
阅读全文
posted @ 2018-10-31 19:35 zarjen
阅读(582)
评论(0)
推荐(0)
人工神经网络—Softmax分类器
摘要: SVM输出的是一个得分值; Softmax的输出是概率。 Sigmoid函数 损失函数计算的是判断正确时的概率的损失值,所以这里是0.13。 Softmax分类器对任何一个分数都可以求出一个损失值。
阅读全文
posted @ 2018-10-31 17:01 zarjen
阅读(1023)
评论(0)
推荐(0)
人工神经网络—损失函数
摘要: 一、线性分类 得分函数:f(x,W) = W*x + b (均为矩阵运算),W为权重参数,x是图像。 得分高的部分就是判断属于那个类别。 多条线分类 二、损失函数 损失函数评估预测模型的效果,1位容忍值,最终损失值越大表示预测效果越差。
阅读全文
posted @ 2018-10-31 16:32 zarjen
阅读(688)
评论(0)
推荐(0)
视觉基础-图像识别
摘要: 一、影响图片识别的因素: 1 角度 2 光照强度 3 形状改变(物体的姿态) 4 部分遮蔽(只有半张脸) 5 背景混入 二、常规识别套路: 1 收集数据集并给定标签 2 训练一个分类器 3 测试 评估 三、K-近邻算法 CIFAR-10数据集(数据库样例) 适合用于练习 四、对图像数据怎样计算所谓的
阅读全文
posted @ 2018-10-31 14:02 zarjen
阅读(870)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
公告