会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
王玉昙
2021年2月1日
机器学习十讲——第四讲
摘要: 第四讲——模型提升: 课程先分析了误差来源: f*是通过训练集得到的一个函数,f^是这个空间H中理论最好的函数,而这个训练集背后是由f产生的,也就是说f是最好的函数,f^次之,f*是由训练集D得到的函数,他和空间H中理论最好的f^之间的误差叫做估计误差,f^与f之间的误差,叫做逼近误差。 感知机看左
阅读全文
posted @ 2021-02-01 02:10 王玉昙
阅读(82)
评论(0)
推荐(0)
导航
博客园
首页
新随笔
联系
订阅
管理
公告