会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
雪饮者
运伟大之思者,必行伟大之迷途
博客园
首页
新随笔
联系
订阅
管理
2017年7月29日
L1&L2 Regularization
摘要: 正则化方法:防止过拟合,提高泛化能力 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出
阅读全文
posted @ 2017-07-29 02:41 雪饮者
阅读(4716)
评论(0)
推荐(0)
公告