摘要: 本讲内容 1. VC dimension (Vapnik-Chervonenkis 维) 2. Model selection(模型选择) --cross validation(交叉验证) --feature selection(特征选择) 3. Bayesian statistics regula 阅读全文
posted @ 2017-06-30 16:36 madrabbit 阅读(1348) 评论(0) 推荐(0) 编辑
摘要: 本讲内容 1. Bias/Variance trade-off (偏差-方差权衡) 2. Empirical risk minimization(ERM) (经验风险最小化) 3. Union Bound/ Hoeffding inequality (联合界/霍夫丁不等式) 4. Uniform c 阅读全文
posted @ 2017-06-29 17:32 madrabbit 阅读(5267) 评论(1) 推荐(3) 编辑
摘要: 本讲内容 1. Kernels (核) 2. L1 norm soft margin SVM (L1 norm软边界SVM) 3. SMO algorithm (SMO算法) 1. 核函数K 首先回顾线性分类器SVM的原始优化问题 上一讲解出其对偶问题为 解出 我们可以将整个算法表示成内积的形式 由 阅读全文
posted @ 2017-06-29 10:16 madrabbit 阅读(601) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2017-06-28 09:13 madrabbit 阅读(3) 评论(0) 推荐(0) 编辑
摘要: 本讲内容 1.Optional margin classifier(最优间隔分类器) 2.primal/dual optimization(原始优化问题和对偶优化问题)KKT conditions(KKT条件) 3.SVM dual (SVM的对偶问题) 4.kernels (核方法) 1.最优间隔 阅读全文
posted @ 2017-06-10 09:38 madrabbit 阅读(1253) 评论(0) 推荐(0) 编辑
摘要: 本讲内容 1. Naive Bayes(朴素贝叶斯) 2.Event models(朴素贝叶斯的事件模型) 3.Neural network (神经网络) 4.Support vector machines(支持向量机) 1.朴素贝叶斯 上讲中的垃圾邮件问题有几个需要注意的地方: (1) 一个单词只 阅读全文
posted @ 2017-06-07 19:34 madrabbit 阅读(1138) 评论(0) 推荐(0) 编辑
摘要: 本讲内容 1. Generative learning algorithms(生成学习算法) 2. GDA(高斯判别分析) 3. Naive Bayes(朴素贝叶斯) 4. Laplace Smoothing(拉普拉斯平滑) 1.生成学习算法与判别学习算法 判别学习算法:直接学习 或者学习一个假设 阅读全文
posted @ 2017-06-03 15:02 madrabbit 阅读(2678) 评论(0) 推荐(0) 编辑
摘要: 本讲内容 1. Newton's method(牛顿法) 2. Exponential Family(指数簇) 3. Generalized Linear Models(GLMs)(广义线性模型) 1.牛顿法 假如有函数, 寻找使得 牛顿法的步骤如下: (1) initialize as some 阅读全文
posted @ 2017-06-02 09:29 madrabbit 阅读(650) 评论(0) 推荐(0) 编辑
摘要: 本讲内容: 1.locally weighted regression (局部加权回归算法) 2.Probabilistic interpretation of linear regression (线性回归的概率解释) 3.Logistic regression (逻辑回归算法) 4.Digres 阅读全文
posted @ 2017-05-25 09:51 madrabbit 阅读(513) 评论(0) 推荐(0) 编辑
摘要: 本讲内容: 1.linear regression(线性回归) 2.gradient descent(梯度下降) 3.normal equations(正规方程组) 首先引入一些符号: (1) 训练样本的数量 (2) 输入变量/ 输入特征 (3) 输出变量/ 目标变量 (4) 第i个训练样本 (5) 阅读全文
posted @ 2017-05-24 00:14 madrabbit 阅读(1008) 评论(1) 推荐(0) 编辑