微信扫一扫打赏支持
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 498 下一页
摘要: 机器学习西瓜书笔记 3.6、类别不平衡问题 一、总结 一句话总结: 【类别不平衡(class-imbalance)】就是指【分类任务中不同类别的训练样例数目差别很大】的情况. 我们经常会遇到类别不平衡,【例如在通过拆分法解决多分类】问题时,即使原始问题中不同类别的训练样例数目相当,在使用OⅴR、Mv 阅读全文
posted @ 2020-11-29 15:16 范仁义 阅读(240) 评论(0) 推荐(0)
摘要: 机器学习西瓜书笔记 3.5、线性判别分析多分类学习 一、总结 一句话总结: 就是利用【二分类学习器来解决多分类问题】 最经典的拆分策略有三种:【“一对一”】(One vs. One,简称OvO)、【“一对其余”】(One vs. Rest,简称OvR)和【“多对多”】(Many vs. Many,简 阅读全文
posted @ 2020-11-29 09:02 范仁义 阅读(444) 评论(0) 推荐(0)
摘要: 机器学习西瓜书白话解读笔记 0309-0310、逻辑回归 一、总结 一句话总结: 【不是得到y和x的关系】,而是得到【ln(y/(1-y))与x的关系】,而ln(y/(1-y))就是对数几率, $$y = \frac { 1 } { 1 + e ^ { - ( w ^ { T } x + b ) } 阅读全文
posted @ 2020-11-29 08:12 范仁义 阅读(273) 评论(0) 推荐(0)
摘要: 机器学习西瓜书笔记 3.4、线性判别分析 一、总结 一句话总结: 【线性判别分析(Linear Discriminant Analysis,简称LDA)】是一种经典的【线性学习方法】,在【二分类问题】上因为最早由 Fisher,1936]提出,亦称“Fisher判别分析” 1、线性判别分析LDA的思 阅读全文
posted @ 2020-11-29 06:49 范仁义 阅读(365) 评论(0) 推荐(0)
摘要: 拉格朗日乘子 是什么 一、总结 一句话总结: 基本的【拉格朗日乘子法(又称为拉格朗日乘数法)】,就是【求函数 f(x1,x2,...) 在 g(x1,x2,...)=0 的约束条件下的极值】的方法。 其【主要思想】是引入一个【新的参数 λ (即拉格朗日乘子】),将【约束条件函数与原函数联系】到一起, 阅读全文
posted @ 2020-11-29 06:31 范仁义 阅读(1302) 评论(0) 推荐(0)
摘要: 线性回归和逻辑回归的关系 一、总结 一句话总结: 【需求是让f(x)来拟合[0,1]】,这个时候应该怎么做呢。拟合[0,1]就是【二分类】的问题。 【阶跃函数不连续,不可导】,所以就【用sigmoid】,所以就是逻辑回归了 逻辑回归:$$y = \frac { 1 } { 1 + e ^ { - ( 阅读全文
posted @ 2020-11-29 04:34 范仁义 阅读(694) 评论(0) 推荐(0)
摘要: 机器学习西瓜书笔记 3.3、对数几率回归 一、总结 一句话总结: 【系统】:系统的学习非常非常重要,所以看书是非常非常必要且高效的 你之前【很多不懂的问题】,系统看书,【书上介绍的不能再详细】 1、为什么从阶跃函数变成对数几率函数(sigmoid)? 【阶跃函数不连续,不可求导】:单位阶跃函数不连续 阅读全文
posted @ 2020-11-28 15:04 范仁义 阅读(577) 评论(0) 推荐(0)
摘要: 机器学习西瓜书笔记 3.2、线性回归 一、总结 一句话总结: 【系统】:系统的学习非常非常重要,所以【看书】是非常非常必要且高效的 1、一元线性回归? 我们先考虑一种最简单的情形:输入【属性的数目只有一个】.为便于讨论,此时我们忽略关于属性的下标,即$$D = \{ ( x _ { i } , y 阅读全文
posted @ 2020-11-28 13:56 范仁义 阅读(275) 评论(0) 推荐(0)
摘要: 机器学习西瓜书白话解读笔记 0301-0308、线性回归 一、总结 一句话总结: 【亡羊补牢】:人的确是都会犯错,【亡羊补牢】最最重要,比如网络游戏 1、一元线性回归? 只有【一个属性】,即d=1;【w,b为单个的数】 一元线性回归目标函数:【最小二乘法】:$$( w ^ { * } , b ^ { 阅读全文
posted @ 2020-11-28 13:02 范仁义 阅读(165) 评论(0) 推荐(0)
摘要: 机器学习西瓜书笔记 3.1、线性模型基本形式 一、总结 一句话总结: 一般形式:$$f ( x ) = w _ { 1 } x _ { 1 } + w _ { 2 } x _ { 2 } + \ldots + w _ { d } x _ { d } + b$$ 向量形式:$$f ( x ) = w 阅读全文
posted @ 2020-11-28 11:18 范仁义 阅读(256) 评论(0) 推荐(0)
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 498 下一页