摘要:        
过拟合及常见处理办法整理(总结) 一、总结 一句话总结: I、参数过多:减少层数,减少每层节点个数 II、样本过少:增加样本(获取更多样本,在已有样本上操作来增加样本) III、正则化(regularization):限制权值 Weight-decay:当网络权值较小时,神经元的激活函数工作在线性区    阅读全文
posted @ 2020-09-17 17:34
范仁义
阅读(2546)
评论(0)
推荐(0)
        
            
        
        
摘要:        
200813_tensorflow2 9、卷积神经网络就是CBAPD(杂) 一、总结 一句话总结: 卷积就是特征提取器,就是C(卷积层)B(批标准化层)A(激活层)P(池化层)D(dropout层) model=tf.keras.models.Sequential([ Conv2D(filters=    阅读全文
posted @ 2020-09-17 03:18
范仁义
阅读(471)
评论(0)
推荐(0)
        
            
        
        
摘要:        
200813_tensorflow2 8、keras中常用的layer层(杂) 一、总结 一句话总结: 拉直层:tf.keras.layers.Flatten() 全连接层:tf.keras.layers.Dense(神经元个数,activation=“激活函数“,kernel_regularize    阅读全文
posted @ 2020-09-17 01:58
范仁义
阅读(310)
评论(0)
推荐(0)
        
 
    
 
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号