摘要:
CNN CNN为什么比DNN在图像识别上更好 如果把图像的每个像素都当成一维特征的话,输入特征维度将会非常大,用DNN的话需要训练的参数太过庞大根本无法训练。而CNN采用了参数共享机制有效的减少了需要训练的参数的数目,而且在图像中邻近像素具有比较大的关联性,适合用卷积处理。 CNN输出尺寸计算 池化 阅读全文
posted @ 2019-06-24 22:32
AI_Engineer
阅读(616)
评论(0)
推荐(0)
摘要:
bagging bagging的弱分类器之间是相互独立的,容易并行,bagging方法主要是能减少方差。 bagging对样本进行采样时采用有放回的采样(自助法),一般会随机采集和训练集样本数m一样个数的样本。这样得到的采样集和训练集样本的个数相同,但是样本内容不同 代表算法:随机森林 boosti 阅读全文
posted @ 2019-06-24 21:48
AI_Engineer
阅读(234)
评论(0)
推荐(0)
摘要:
Batch Normalization 原理 Batch Norm的思路是调整各层的激活值分布使其拥有适当的广度 。 原理:(在反向传播的过程中乘了上一层的输出,当每层的输出都小于1时就会造成梯度消失,大于1时会造成梯度爆炸)BN对每一层的输出都做了标准化使得原本会减小的activation的sca 阅读全文
posted @ 2019-06-24 21:25
AI_Engineer
阅读(403)
评论(0)
推荐(0)
摘要:
过拟合产生的原因? 过拟合的表现:模型在训练集上误差很小,在测试集上误差很大。 过拟合主要由两个方面决定:一是数据集,二是模型。 我认为过拟合问题目前来说只能减少不能避免。 数据集角度: 我们知道无论是机器学习还是深度学习,都是通过在训练集上做训练来最小化训练集上的损失函数来得到想要的模型,也就是说 阅读全文
posted @ 2019-06-24 21:20
AI_Engineer
阅读(732)
评论(0)
推荐(0)
摘要:
均方误差损失 \[J\left( {W,b,a,y} \right) = \frac{1}{2}{\left\| {y - a} \right\|^2}\] 回归问题中,输出层一般用恒等函数,损失函数使用均方误差损失。 交叉熵损失 二分类:\[J\left( {W,b,a,y} \right) = 阅读全文
posted @ 2019-06-24 17:39
AI_Engineer
阅读(492)
评论(0)
推荐(0)
摘要:
Sigmoid $\sigma \left( z \right) = \frac{1}{{1 + {e^{ - z}}}}$,${\sigma ^`}\left( z \right) = \sigma \left( z \right)\left( {1 - \sigma \left( z \righ 阅读全文
posted @ 2019-06-24 17:01
AI_Engineer
阅读(304)
评论(0)
推荐(0)

浙公网安备 33010602011771号