摘要: 有时候我们希望卷积计算保持输入特征图的尺寸保持不变(一般为3*3卷积核且步长为1) 阅读全文
posted @ 2020-07-23 18:06 要想瘦先吃肉 阅读(212) 评论(0) 推荐(0) 编辑
摘要: 定义:感受野是指输出特征图中的1个像素点映射到原始输入图片区域的大小 所以两层3*3的卷积核和1层5*5的卷积核的特征提取能力是一样的,该如何选择?设输入特征宽高为x,步长为 考虑两个方面: 1)带训练参数量 两层3*3卷积核:9+9=18 一层5*5卷积核:25 2)计算量 两层3*3卷积核:第一 阅读全文
posted @ 2020-07-23 17:59 要想瘦先吃肉 阅读(152) 评论(0) 推荐(0) 编辑
摘要: 全连接NN:每个神经元与前后相邻的每一个神经元都有连接关系,输入的是特征,输出的为预测结果。 参数个数: 共101770个参数 而在实际的项目过程中输入神经网络的是具有更高分辨率的彩色图片,使得输入神经网络的特征数过多,随着隐藏层层数的增加,网络规模过大,待优化参数过多很容易使模型过拟合,为了减少带 阅读全文
posted @ 2020-07-23 17:05 要想瘦先吃肉 阅读(1161) 评论(0) 推荐(0) 编辑
摘要: 作用:神经网络对0附近的数据更敏感,但是随着网络层数的增加,特征数据会出现偏离0均值的情况,标准化可以使数据符合以0位均值,1为标准差的正太分布,把偏移的特征数据重新拉回0附近。 方法: 标准化:使数据符合0为均值,1为标准差的分布。 批标准差:对一小批数据(batch),做标准化处理。 批标准化后 阅读全文
posted @ 2020-07-23 14:43 要想瘦先吃肉 阅读(684) 评论(0) 推荐(0) 编辑
摘要: 卷积神经网络就是借助卷积核对输入特征进行特征提取,再把提取的特征送入全连接网络进行识预测。 卷积神经网络主要模块: 卷积是什么? 卷积是特征提取器,就是CBAPD(上图,下代码) model = tf.keras.models.Sequential( Conv2D(filter=6, kernel_ 阅读全文
posted @ 2020-07-23 11:42 要想瘦先吃肉 阅读(133) 评论(0) 推荐(0) 编辑
摘要: 作用:为了缓解神经网络过拟合 方法:在神经网络训练时,将一部分神经元按照一定的概率从神经网络中暂时舍弃。神经网络使用时,被舍弃的神经元恢复链接。 TF2描述: tf.keras.layers.Dropout(舍弃的概率) 实例: 1 model = tf.keras.models.Sequentia 阅读全文
posted @ 2020-07-23 11:19 要想瘦先吃肉 阅读(173) 评论(0) 推荐(0) 编辑
摘要: 作用:池化操作用于减少卷积神经网络中特征的数据量。 方法: 主要包含最大池化和均值池化。 1)最大池化 可以提取图片纹理 2)均值池化 保留背景特征 TF2描述: 1)最大池化 tf.keras.layers.MaxPool2D( pool_size = 池化核尺寸,# 写一个元组(核高,核宽)高宽 阅读全文
posted @ 2020-07-23 10:43 要想瘦先吃肉 阅读(792) 评论(0) 推荐(0) 编辑