摘要:
过拟合及常见处理办法整理(总结) 一、总结 一句话总结: I、参数过多:减少层数,减少每层节点个数 II、样本过少:增加样本(获取更多样本,在已有样本上操作来增加样本) III、正则化(regularization):限制权值 Weight-decay:当网络权值较小时,神经元的激活函数工作在线性区 阅读全文
posted @ 2020-09-17 17:34
范仁义
阅读(2697)
评论(0)
推荐(0)
摘要:
200813_tensorflow2 9、卷积神经网络就是CBAPD(杂) 一、总结 一句话总结: 卷积就是特征提取器,就是C(卷积层)B(批标准化层)A(激活层)P(池化层)D(dropout层) model=tf.keras.models.Sequential([ Conv2D(filters= 阅读全文
posted @ 2020-09-17 03:18
范仁义
阅读(494)
评论(0)
推荐(0)
摘要:
200813_tensorflow2 8、keras中常用的layer层(杂) 一、总结 一句话总结: 拉直层:tf.keras.layers.Flatten() 全连接层:tf.keras.layers.Dense(神经元个数,activation=“激活函数“,kernel_regularize 阅读全文
posted @ 2020-09-17 01:58
范仁义
阅读(312)
评论(0)
推荐(0)

浙公网安备 33010602011771号