摘要:
卷积神经网络 整体结构 全连接层:相邻层的所有神经元之间都有连接 CNN的结构 Convolution层 ReLU层 Pooling层 靠近输出的层中使用了"Affine ReLU"组合 最后的输出层中使用了"Affine Softmax"组合 卷积层 全连接层存在的问题 数据的形状被忽视:图像向全 阅读全文
posted @ 2020-02-05 17:05
AHang
阅读(275)
评论(0)
推荐(0)
摘要:
与学习相关的技巧 参数的更新 SGD $W \leftarrow W \eta \frac{\partial L}{\partial W}$ 缺点:如果函数的形状非均向(anisotropic),搜索的路径会非常低效.梯度的方向并没有指向最小值的方向.呈"之"字形向最小值移动,效率低. Moment 阅读全文
posted @ 2020-02-05 11:58
AHang
阅读(280)
评论(0)
推荐(0)
摘要:
误差反向传播法 计算图 1. 用计算图解题 1. 构建计算图 2. 在计算图上,从左向右进行计算(正向传播) 2. 局部计算 1. 通过传递"局部计算"获得最终结果. 2. 局部计算指无论全局发生了什么,都能只根据与自己相关的信息输出接下来的结果 3. 反向传播 1. 反向传播传递"局部导数" 链式 阅读全文
posted @ 2020-02-05 11:56
AHang
阅读(361)
评论(0)
推荐(0)
摘要:
神经网络的学习 学习:从训练数据中自动获取最优权重参数的过程 指标:损失函数 目的:以损失函数为基准,找到能使损失函数的值达到最小的权重参数 机器学习的方案 从图像中提取特征量(可以从输入数据中准确提取本质数据的转换器) 用机器学习技术学习特征量的模式 CV领域常用的特征量包括SIFT,SURF和H 阅读全文
posted @ 2020-02-05 11:55
AHang
阅读(263)
评论(0)
推荐(0)
摘要:
神经网络 输入层(第0层) 中间层(隐藏层) 输出层(最后一层) 隐藏层的激活函数 将输入信号的总和转换为输出信号.决定如何来激活输入信号的总和 先计算输入信号的加权总和(带偏置),然后用激活函数转换这一总和 $$ a = b+\omega_1x_1+\omega_2x_2\\ y = h(a) $ 阅读全文
posted @ 2020-02-05 11:48
AHang
阅读(215)
评论(0)
推荐(0)
摘要:
感知机 感知机接收多个输入信号,输出一个信号。感知机的信号只有“1/0”两种取值。 神经元计算传送过来的信号的总和,当总和超过 阈值时,“神经元被激活”。阈值用$\theta$表示 $$ y=\begin{cases} 0,& \text { $(\omega_1x_1+\omega_2x_2\le 阅读全文
posted @ 2020-02-05 11:43
AHang
阅读(171)
评论(0)
推荐(0)

浙公网安备 33010602011771号