深度学习第四节——卷积神经网络

提纲

·绪论

1. 卷积神经网络的应用 2. 传统神经网络vs卷积神经网络

·基本组成结构

1. 卷积 2.池化 3.全连接

·卷积神经网络典型结构

1. AlexNet 2. ZFNet 3. VGG 4. GoogleNet 5. ResNet

·代码实战

TensorFlow-CNN

·总结

1.参考作业2.代码3.文献

 

一、绪论

1.卷积神经网络的应用:

(1)基本应用:分类,检测,检索,分割 (计算机视觉里常用)

(2)其他应用:人脸识别、人脸表情识别、图像生成、图像风格转化、图像风格转化、自动驾驶

2.传统神经网络vs卷积神经网络

深度学习三部曲

1. 搭建神经网络结构:给定一些图片,提取特征,就像是图片的一个表示

2. 找到一个合适的损失函数:来评估我的表示和真实的一些差异

比如说:交叉熵损失(cross entropy loss), 均方误差(MSE),……

3. 找到一个合适的优化函数,更新网络中的参数,让它朝着正确的方向去走

比如反向传播(BP算法),用随机梯度下降(SGD)去更新网络的参数

 

本节课主要讲第一部分,如何搭建神经网络的结构

之前先看损失函数

 

 

假设有一个非常简单的神经网络,这个神经元的参数是W和b,给图像一个简单的表示xi,通过提特征的过程表示成f(xi, W, b),f=W*x+b,S分母…..结果呢,就是每一个都是这样概率的形式,并且他们的和是唯一的。真实的标签:真实位置是1,其他位置是0。接下来用损失函数衡量吻合度,调整参数、权重,使得映射的结果和实际类别相吻合。

在分类的任务中,常用的损失有:交叉熵损失yi指真实类别,yi’指预测类别,y是真是类别,f(x)预测类别。

在回归的任务中,比如说物体检测的例子。

 

传统神经网络能用到计算机视觉上吗?为什么还需要卷积神经网络呢?

全连接网络处理图像的问题

参数太多:权重矩阵的参数太多 –> 过拟合

卷积神经网络的解决方式

局部关联,参数共享(一次滑动过程中参数是不改变的)

传统神经网络vs卷积神经网络

相同之处:都是层级网络:

CONV layer: 卷积层

RELU layer: RELU 激活层

POOL layer: 池化层

FC layer:全连接层

二、基本组成结构

1.卷积— Convolutional Layer

·卷积是对两个实变函数的一种数学操作。

·在图像处理中,图像是以二维矩阵的形式输入到神经网络的, 因此我们需要二维卷积。

b偏秩向

卷积核/滤波器

Input:输入二维矩阵,可能是对图像的一个表示

Kernel:红色框框

Weights:kernel里的每一个值

Receptive field:感受野:卷积核的感受野是对应的输入那块

Activation map特征图:经过一次卷积之后输出出来的

Padding:比如7*7,步长为3时最后不够,就在周围补0

Deep/channel深度:map厚度

卷积的可视化理解:机器学习有很强的数学理论支撑

在深层次上,不同的卷积核关注不同的信息;人眼可能识别不了

2.池化— Poo ling Layer

池化的过程更像是在做缩放的一个过程

·保留了主要特征的同时减少参数和计算量,防止过拟合,提高模型泛化能力。

·它一般处于卷积层与卷积层之间,全连接层与全连接层之间

Pooling的类型: Max pooling: 最大值池化 Average pooling: 平均池化

更像是数学的问题,最大值更常见

3.全连接 — Fully Connected Layer

全连接层 / FC layer:两层之间所有神经元都有权重链接

通常全连接层在卷积神经网络尾部

全连接层参数量通常最大

 

卷积神经网络小结:

一个典型的卷积网络是由卷积层、池化层、全连接层交叉堆叠而成

卷积是对两个实变函数的一种数学操作,求内积的一个过程

局部关联,参数共享

未加padding时输出的特征图大小:(N-F)/stride+1

有padding时输出的特征图大小:(N+padding*2- F)/stride+1

Pooling的类型:Max pooling: 最大值池化,Average pooling: 平均池化

全连接:通常全连接层在卷积神经网络尾部

posted @ 2020-10-25 18:30  Schnappy  阅读(286)  评论(0)    收藏  举报