会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
mantch
公告
日历
导航
博客园
首页
新随笔
新文章
联系
订阅
管理
2019年8月19日
神经网络优化算法:Dropout、梯度消失/爆炸、Adam优化算法,一篇就够了!
摘要: 1. 训练误差和泛化误差 机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不⼀定更准确。这是为什么呢? 因为存在着训练误差和泛化误差: **训练误差:**模型在训练数据集上表现出的误差。 **泛化误差:**模型在任意⼀个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 训练...
阅读全文
posted @ 2019-08-19 20:00 mantch
阅读(5022)
评论(0)
推荐(2)
博客园
© 2004-2026
浙公网安备 33010602011771号
浙ICP备2021040463号-3