微信扫一扫打赏支持
摘要: Tensorflow2(预课程) 5.2、手写数字识别-层方式-卷积神经网络 一、总结 一句话总结: 一、用到卷积神经网络的时候,需要把训练和测试的x的颜色通道数指出来 二、train_x = tf.reshape(train_x,[-1,28,28,1]) 三、test_x = tf.reshap 阅读全文
posted @ 2020-09-17 23:39 范仁义 阅读(413) 评论(0) 推荐(0)
摘要: Keras深度学习之卷积神经网络(CNN) 一、总结 一句话总结: 卷积就是特征提取,后面可接全连接层来分析这些特征 二、Keras深度学习之卷积神经网络(CNN) 转自或参考:Keras深度学习之卷积神经网络(CNN)https://www.cnblogs.com/wj-1314/articles 阅读全文
posted @ 2020-09-17 21:04 范仁义 阅读(933) 评论(0) 推荐(0)
摘要: keras中添加正则化 一、总结 一句话总结: model.add(Dense(64, input_dim=64,kernel_regularizer=regularizers.l2(0.01)) 1、keras正则化几个关键字? kernel_regularizer:施加在权重上的正则项,为ker 阅读全文
posted @ 2020-09-17 20:50 范仁义 阅读(1256) 评论(0) 推荐(0)
摘要: TensorFlow优化模型之正则化 一、总结 一句话总结: 一)、正则化:是一种常用的为了避免过度拟合而采用的一种算法。正则化的主要思想是通过在损失函数中加入刻画模型复杂程度的指标, 二)、无论是L1正则化还是L2正则化,两者的目的都是通过限制权重的大小,来使得模型不能任意的拟合训练数据中的随机噪 阅读全文
posted @ 2020-09-17 20:41 范仁义 阅读(346) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 7.2、cifar10分类-层方式-卷积神经网络 一、总结 一句话总结: 卷积层构建非常简单,就是CBAPD,注意卷积层接全连接层的时候注意flatten打平 # 构建容器 model = tf.keras.Sequential() # 卷积层 model.add( 阅读全文
posted @ 2020-09-17 17:49 范仁义 阅读(561) 评论(0) 推荐(0)
摘要: 过拟合及常见处理办法整理(总结) 一、总结 一句话总结: I、参数过多:减少层数,减少每层节点个数 II、样本过少:增加样本(获取更多样本,在已有样本上操作来增加样本) III、正则化(regularization):限制权值 Weight-decay:当网络权值较小时,神经元的激活函数工作在线性区 阅读全文
posted @ 2020-09-17 17:34 范仁义 阅读(2547) 评论(0) 推荐(0)
摘要: 200813_tensorflow2 9、卷积神经网络就是CBAPD(杂) 一、总结 一句话总结: 卷积就是特征提取器,就是C(卷积层)B(批标准化层)A(激活层)P(池化层)D(dropout层) model=tf.keras.models.Sequential([ Conv2D(filters= 阅读全文
posted @ 2020-09-17 03:18 范仁义 阅读(471) 评论(0) 推荐(0)
摘要: 200813_tensorflow2 8、keras中常用的layer层(杂) 一、总结 一句话总结: 拉直层:tf.keras.layers.Flatten() 全连接层:tf.keras.layers.Dense(神经元个数,activation=“激活函数“,kernel_regularize 阅读全文
posted @ 2020-09-17 01:58 范仁义 阅读(310) 评论(0) 推荐(0)