摘要:        
神经网络激励函数的作用是什么 一、总结 一句话总结: sigmoid激活函数可以引入非线性因素,让模型学习到一个分类平面,得到一个非线性的决策边界,如下图 二、机器学习中线性函数与非线性函数的区别 转自或参考:机器学习中线性函数与非线性函数的区别http://blog.csdn.net/WONITA    阅读全文
posted @ 2020-09-22 21:03
范仁义
阅读(245)
评论(0)
推荐(0)
        
            
        
        
摘要:        
深度学习中,交叉熵损失函数为什么优于均方差损失函数 一、总结 一句话总结: A)、原因在于交叉熵函数配合输出层的激活函数如sigmoid或softmax函数能更快地加速深度学习的训练速度 B)、因为反向传播过程中交叉熵损失函数得到的结果更加简洁,无论sigmoid或softmax,可以定量分析。 1    阅读全文
posted @ 2020-09-22 20:23
范仁义
阅读(1678)
评论(0)
推荐(0)
        
            
        
        
摘要:        
偏差和方差 一、总结 一句话总结: 偏差(bias):偏差衡量了模型的预测值与实际值之间的偏离关系。 方差(variance):方差描述的是训练数据在不同迭代阶段的训练模型中,预测值的变化波动情况(或称之为离散情况)。 1、偏差和方差对应的实际情况实例? [一]、低偏差,低方差:这是训练的理想模型,    阅读全文
posted @ 2020-09-22 11:49
范仁义
阅读(2572)
评论(0)
推荐(0)
        
            
        
        
摘要:        
Keras中图像增强技术详解 一、总结 一句话总结: 在Keras中使用图像增强技术,对图片可以进行各种操作,以生成数倍于原图片的增强图片集。这些数据集可帮助我们有效地对抗过拟合问题,更好地生成理想的模型。 1、数据量少带来的最直接影响就是过拟合。那有没有办法在现有少量数据基础上,降低或解决过拟合问    阅读全文
posted @ 2020-09-22 11:44
范仁义
阅读(644)
评论(0)
推荐(0)
        
 
    
 
 浙公网安备 33010602011771号
浙公网安备 33010602011771号