06 2017 档案

摘要:本讲内容 1. VC dimension (Vapnik-Chervonenkis 维) 2. Model selection(模型选择) --cross validation(交叉验证) --feature selection(特征选择) 3. Bayesian statistics regula 阅读全文
posted @ 2017-06-30 16:36 madrabbit 阅读(1434) 评论(0) 推荐(0)
摘要:本讲内容 1. Bias/Variance trade-off (偏差-方差权衡) 2. Empirical risk minimization(ERM) (经验风险最小化) 3. Union Bound/ Hoeffding inequality (联合界/霍夫丁不等式) 4. Uniform c 阅读全文
posted @ 2017-06-29 17:32 madrabbit 阅读(5722) 评论(1) 推荐(3)
摘要:本讲内容 1. Kernels (核) 2. L1 norm soft margin SVM (L1 norm软边界SVM) 3. SMO algorithm (SMO算法) 1. 核函数K 首先回顾线性分类器SVM的原始优化问题 上一讲解出其对偶问题为 解出 我们可以将整个算法表示成内积的形式 由 阅读全文
posted @ 2017-06-29 10:16 madrabbit 阅读(722) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2017-06-28 09:13 madrabbit 阅读(3) 评论(0) 推荐(0)
摘要:本讲内容 1.Optional margin classifier(最优间隔分类器) 2.primal/dual optimization(原始优化问题和对偶优化问题)KKT conditions(KKT条件) 3.SVM dual (SVM的对偶问题) 4.kernels (核方法) 1.最优间隔 阅读全文
posted @ 2017-06-10 09:38 madrabbit 阅读(1339) 评论(0) 推荐(0)
摘要:本讲内容 1. Naive Bayes(朴素贝叶斯) 2.Event models(朴素贝叶斯的事件模型) 3.Neural network (神经网络) 4.Support vector machines(支持向量机) 1.朴素贝叶斯 上讲中的垃圾邮件问题有几个需要注意的地方: (1) 一个单词只 阅读全文
posted @ 2017-06-07 19:34 madrabbit 阅读(1174) 评论(0) 推荐(0)
摘要:本讲内容 1. Generative learning algorithms(生成学习算法) 2. GDA(高斯判别分析) 3. Naive Bayes(朴素贝叶斯) 4. Laplace Smoothing(拉普拉斯平滑) 1.生成学习算法与判别学习算法 判别学习算法:直接学习 或者学习一个假设 阅读全文
posted @ 2017-06-03 15:02 madrabbit 阅读(2755) 评论(0) 推荐(0)
摘要:本讲内容 1. Newton's method(牛顿法) 2. Exponential Family(指数簇) 3. Generalized Linear Models(GLMs)(广义线性模型) 1.牛顿法 假如有函数, 寻找使得 牛顿法的步骤如下: (1) initialize as some 阅读全文
posted @ 2017-06-02 09:29 madrabbit 阅读(730) 评论(0) 推荐(0)