神经网络

图像识别

建立模型

image

前馈神经网络

只能正向不能反向,即参数*权重 + 偏置--->结果 * 激活函数-》 值
image

输出层

image
softmax函数计算损失的效果简单,便于计算

损失函数

手写识别

image

  1. 首先图像进行二值化,即用flatten平展开
  2. image

损失函数

image
损失函数干嘛?即用于将概率计算出来,把分辨的结果为[0,1]
常用的损失函数

参数学习

梯度下降

image
如何调节参数呢?
image
如图 w' = w - &L/&w Loss为损失,w为权重,w'为新权重
当前损失对于每个权重的偏导数*步长g
步长g为学习率,对于归一化的图片,我选择0.1或更小,g的设置属于调参

反向传播

image
反向传播需要进一步读文章
原理是从最后一层全连接层得到的loss,loss只是临时记录,去反向计算倒数第二层较好的参数,然后慢慢向前传播去进行优化。


全连接神经网络

image
模型的结构不够灵活
16 16 =256
如果图片大小变化,
模型的参数太多了
需要掌握权重个数的计算:
全连接神经网络的权重参数存在于 层与层之间 即 a
b
偏执参数 存在于 层结点上 即b
总计; (ab+b)n-1 这不是公式

卷积神经网络

image

减少参数

局部连接

image

权值共享

image

下采样

image
下采样不易变化过大

网络结构

image

卷积核

image
我们需要去学习 kernel的值,由于w过多,我们通常忽略了每个卷积核的偏置
image
掌握计算 参数*卷积核的size
主要是从 特征图去计算特征图,最终接全连接,目的是分类别

pooling

通过下采样来减少图片 最大采样与平均采样
image
通道数不变、变成一半或更小,减少参数

结构

image

LeNet-5经典模型

image
首先 输入32 * 32 * 1的灰度图——使用551的6个卷积核

posted @ 2021-03-14 20:19  zhouly0228  阅读(97)  评论(0)    收藏  举报