06 2019 档案
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了Decision Tree模型。Decision Tree算法的核心是通过递归的方式,将数据集不断进行切割,得到子分支,最终形成树的结构。C&RT算法是决策树比较简单和常用的
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了Adaptive Boosting。AdaBoost演算法通过调整每笔资料的权重,得到不同的hypotheses,然后将不同的hypothesis乘以不同的系数$\alpha
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要开始介绍Aggregation Models,目的是将不同的hypothesis得到的$g_t$集合起来,利用集体智慧得到更好的预测模型$G$。首先我们介绍了Blending,bl
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了Support Vector Regression,将kernel model引入到regression中。首先,通过将ridge regression和represente
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课我们主要介绍了Kernel Logistic Regression,讨论如何把SVM的技巧应用在soft binary classification上。方法是使用L2 level le
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了Soft Margin SVM,即如果允许有分类错误的点存在,那么在原来的Hard Margin SVM中添加新的惩罚因子$C$,修正原来的公式,得到新的$\alpha_n$
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了Kernel SVM。先将特征转换和计算内积这两个步骤合并起来,简化计算、提高计算速度,再用Dual SVM的求解方法来解决。Kernel SVM不仅能解决简单的线性分类问题
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了SVM的对偶形式,即dual SVM。Dual SVM也是一个二次规划问题,可以用QP来进行求解。之所以要推导SVM的对偶形式是因为:首先,它展示了SVM的几何意义;然后,从
阅读全文
摘要:注: 文章中所有的图片均来自台湾大学林轩田《机器学习技法》课程。 笔记原作者:红色石头 微信公众号:AI有道 上节课主要介绍了线性支持向量机(Linear Support Vector Machine)。Linear SVM的目标是找出最“胖”的分割线进行正负类的分离,方法是使用二次规划来求出分类线
阅读全文

浙公网安备 33010602011771号