第3次作业:卷积神经网络

【第一部分】视频学习心得及问题总结

1、学习心得

成员 学习心得
伍政谦   在本次视频学习中,我加深了对卷积神经网络的理解,虽然之前也有了解过卷积、
池化和连接层的一些内容,但是这次是第一次系统性地学习。同时,视频中的一些经典
模型的讲解使得我更加深刻地认识到卷积神经网络的使用方法!
朱笔锋   CNN(卷积神经网络)一般由卷积层、池化层、全连接层三部分构成,最擅长的就
是图片的处理。它受到人类视觉神经系统的启发。能够有效的将大数据量的图片降维成
小数据量,能够有效的保留图片特征,符合图片处理的原则
邵骏飞   CNN包含以下几种结构:输入层,卷积层,ReLU层,池化层,全连接层。卷积层和
全连接层的参数会随着梯度下降更新,ReLU和池化层的参数则固定不参与训练,整个网
络的参数量主要来自全连接层,整个网络的计算量主要来自卷积操作。
  输入层输入数据并对其去均值,即把输入数据各个维度都中心化为0,避免数据过多
偏差,影响训练效果。卷积层的目的是通过卷积核和图像块做卷积操作来提取局部特征。
ReLU层通过激活函数引入非线性因素,解决线性模型所不能解决的问题。ReLU是当前最
常用的激活函数之一,它可以处理sigmoid、tanh中常见的梯度消失问题,同时也是计算
梯度最快的激励函数。池化相当于做一个下采样,当卷积输出的特征图很大时(感受野小,
步长小),可进一步对特征层降维减少网络参数(只降维不改变深度)。池化可以进一步减
少参数量的同时也可以保证旋转不变性,使提取到的特征更稳定。
  全连接就是整合全局信息,并将“分布式的特征表示”映射到标记空间的作用,即承担分
类器的作用。
任博达   卷积神经网络是深度学习的代表算法之一,在本次视频学习中我更加了解了卷积神经网
络,对于CNN的几个结构也有了初步的理解。卷积神经网络中的卷积层和池化层能够对输入
数据进行特征提取,全连接层的作用则是对提取的特征进行非线性组合以得到输出。
习泽坤   本次视频我基本了解了卷积神经网络的相关知识,了解了卷积,池化,全连接的相关知
识也了解了一些典型的网络结构例如:AlexNet、VGG、GoogleNet、ResNet。
  这次课对于我来说就像是一个卷积神经网络的扫盲一样,我了解了卷积神经网络的相关
术语以及他们的运作方式,例如卷积核,我原来以为是一个类似cpu的核心一样的东西,在
学习完本次课程后才发现只是一个向量,还有图像增强技术,我以为是一个类似摄影的hdr
技术,原来是只把图像反转截取。让我觉得卷积神经网络没有我想象的神秘与高大上。
  但是后面的各种网络结构我却不是很能理解,不知道为什么要这样设置层数,为什么这
种体系结构能让卷积神经网络的正确率提高这么多。
郭冉   所谓“卷积神经网络”,就是结合卷积公式,建立类似神经元的生物学模型,再加上一堆
激活函数、损失函数来修正加工,最后再梯度求导达到帮助AI进行深度学习的目的。
  卷积公式: fX∗fY=∫−∞∞fX(z−y)fY(y)dy=∫−∞∞fX(x)fY(z−x)dx。
这里z=x+y,fX和fY都是概率密度,fX∗fY表示卷积。其意义就是响应在输入信号上的延迟叠加
  这个概念借助了神经元的特性:能够接受外界刺激,产生兴奋,传导兴奋。又因为神经
元兴奋的传导是线性关系的,为了防止输入0输出0这种情况的产生和处理一些非线性情况,
专家们就在这个模型里面添加了激活函数,目前常用的激活函数有很多,如Sigmoid函数
(s形生长曲线)、ReLU函数(线性整流函数)等。然后再用损失函数来对比实际输出结果
和理论预期结果,导出误差。
  误差减少的就要用到求导这种方法,去以上的过程中找到梯度下降的地方,优化参数,
误差就会减少。经过卷积神经网络这一过程,误差不断减小,AI就能进行深度学习了。

2、疑问

成员 问题
伍政谦 为什么padding补的是0,而不是选择其最近的值?
朱笔锋 为什么一定要padding,还有其他解决方案吗?
邵骏飞 如何理解“局部关联,参数共享”?
任博达 不太理解Inception结构以及作用
习泽坤 卷积神经网络的自我优化是如何实现的,各种网络结构对准确率提升的原理何在?
郭冉 几个不同的卷积神经网络构造方式各自适合什么实例?

【第二部分】代码练习

成员 博客地址
伍政谦 https://www.cnblogs.com/Huashuidaiwang/p/15412833.html
朱笔锋 https://www.cnblogs.com/Dracula-Zs/p/15413191.html
邵骏飞 https://www.cnblogs.com/empfore/p/15414479.html
任博达 https://www.cnblogs.com/pulierkami/p/15415048.html
习泽坤 https://www.cnblogs.com/blogofxzk/p/15414366.html
郭冉 https://www.cnblogs.com/yyfyyf/p/15415103.html
posted @ 2021-10-16 16:57  SE_GroupA  阅读(156)  评论(0)    收藏  举报