神经网络数学基础+卷积神经网络+部分实战训练

神经网络的数学基础

1.矩阵线性变换起到尺度和旋转上的变化W·x与升降维放大缩小相关b与平移相关与弯曲相关)

2.矩阵的秩秩越低数据分布越容易被捕捉相关性大

  奇异值低秩近似保留决定数据分布最主要的模式/方向

3.概率

概率分布似然函数对数似然函数最大对数似然

4.策略设计机器学习的目的是获得最小泛化误差

无免费午餐定理奥卡姆剃刀定理

5.欠拟合提高模型复杂度

  过拟合降低模型复杂度

6.频率学派可独立重复的随机实验中单个事件发生频率统计机器学习

  贝叶斯学派关注随机事件可信程度概率图模型

7.Beyond深度学习

因果推断群体智能

 

总结

感觉自己数学知识还有一定欠缺需要恶补

 

卷积神经网络

 

深度学习三步

搭建神经网络结构提取特征->找到一个合适损失函数评估差异->

找到一个合适的优化函数更新参数

 

搭建神经网络结构

1.损失函数用来衡量输出和真实标签之间的差异可以通过调整参数/权重来进行调整

  常用分类损失交叉熵损失

  常用回归损失均方误差平均绝对值误差

 

2.卷积神经网络

局部关联卷积核)、参数共享

基本组成结构

1卷积是对两个实变函数以实数为变量的一种数学操作

二维卷积

Kernel/filter:卷积核滤波器

Receptive field感受野(进行一次卷积时所对应输入的区域

Activation map/featuer map:特征图经过一次卷积所输出结果

Channel:深度

 

输出特征图大小:(N+2*padding-F/stride+1

过拟合权重矩阵参数太多过度拟合训练集

 

(2)池化:(Pooling

保留主要特征的同时减少参数和计算量防止过拟合提高模型泛化能力

一般处于卷积层和卷积层之间全连接层和全连接层之间

常用方法

最大值池化平均值池化

 

3全连接

全连接层一般放在卷积神经网络尾部

 

3.典型神经网络结构

(1)AlexNet

采用ReLU函数

DropOut随机失活):训练时随机关闭部分神经元防止过拟合

数据增强data augmentation平移翻转对称等 

 

过程第一次卷积卷积---ReLU---池化

  第二次卷积卷积---ReLU---池化

    第三次卷积卷积---池化

。。。。。。。

第六层全连接---ReLU---Dropout

 

  2ZFNet

(3)VGG是一个更深的网络 

(4)GoogleNet

包含22个但参数层没有FC

多卷积核增加特征多样性利用padding在深度上进行串联

Inception v2插入1*1卷积核进行降维v3用小卷积核替代大卷积核

(5)ResNet

残差学习网络深度有152层

残差去掉相同的主体部分从而突出微小变化

 

MNIST数据集分类

1.下载导入MNIST

 

 

2.创建网络

1定义网络时需要继承nn.Module,并实现其forward方法

  forword函数是用来定义网络结构

2定义训练和测试函数

  batch确定一个样本单位数量

  test用来计算损失

3.在小型全连接网络FC2Layer上训练

  

4.在卷积神经网络上进行训练

  可以显著看出CNN的准确率明显优于全连接网络原因在于CNN采用了卷积和池化方法

 

5.打乱图像顺序再次进行训练

  采用torch.randperm( )函数将图像像素打乱让卷积和池化无法发挥作用

打乱

 

小型

 

卷积神经网络 

 

可以明显看出在不能利用原有的图像局部关系后CNN网络失去了原有的准确率

 

CIFAR10数据分类

其中图像尺寸为3*32*32RGB的三色通道

 

1.导入数据集

 

2.定义网络

(1)损失函数和优化器

(2)训练网络

     正向传播+反向传播+优化

    

(3)从测试集取8张图片进行模型测试

 

 

测试结果

  发现有3个图片识别错误

(4)对整个数据集进行测试

  发现成功率在63%左右

 

使用 VGG16 对 CIFAR10 分类 

1.定义dataloaderimglabel加载到模型中):

发现batch_size相对于第一个扩大到2倍

2.定义VGG网络并将网络放到GPU

 

发现原本代码报错,提示cfg不存在cfg设置为外部变量后解决之后又提示错误大小不匹配因此将nn.Linear(1024,10)按提示更改为(512,10),程序成功运行但对原理比较模糊

 

 

结果运行

 

  跑的比较慢

总结:

  通过本次的三个实验对训练过程有了更深刻的了解但在许多细节处的原理仍未理解透彻需要在以后的学习中慢慢精进

 

posted @ 2020-10-27 22:48  古来月  阅读(703)  评论(0)    收藏  举报