会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
madrabbit
博客园
首页
新随笔
联系
订阅
管理
随笔 - 10
文章 - 0
评论 - 2
阅读 -
15183
2017年6月30日
(笔记)斯坦福机器学习第十讲--特征选择
摘要: 本讲内容 1. VC dimension (Vapnik-Chervonenkis 维) 2. Model selection(模型选择) --cross validation(交叉验证) --feature selection(特征选择) 3. Bayesian statistics regula
阅读全文
posted @ 2017-06-30 16:36 madrabbit
阅读(1398)
评论(0)
推荐(0)
2017年6月29日
(笔记)斯坦福机器学习第九讲--经验风险最小化
摘要: 本讲内容 1. Bias/Variance trade-off (偏差-方差权衡) 2. Empirical risk minimization(ERM) (经验风险最小化) 3. Union Bound/ Hoeffding inequality (联合界/霍夫丁不等式) 4. Uniform c
阅读全文
posted @ 2017-06-29 17:32 madrabbit
阅读(5585)
评论(1)
推荐(3)
(笔记)斯坦福机器学习第八讲--顺序最小优化算法
摘要: 本讲内容 1. Kernels (核) 2. L1 norm soft margin SVM (L1 norm软边界SVM) 3. SMO algorithm (SMO算法) 1. 核函数K 首先回顾线性分类器SVM的原始优化问题 上一讲解出其对偶问题为 解出 我们可以将整个算法表示成内积的形式 由
阅读全文
posted @ 2017-06-29 10:16 madrabbit
阅读(683)
评论(0)
推荐(0)
2017年6月28日
生成式对抗网络(Generative Adversial Nets)
该文被密码保护。
阅读全文
posted @ 2017-06-28 09:13 madrabbit
阅读(3)
评论(0)
推荐(0)
2017年6月10日
(笔记)斯坦福机器学习第七讲--最优间隔分类器
摘要: 本讲内容 1.Optional margin classifier(最优间隔分类器) 2.primal/dual optimization(原始优化问题和对偶优化问题)KKT conditions(KKT条件) 3.SVM dual (SVM的对偶问题) 4.kernels (核方法) 1.最优间隔
阅读全文
posted @ 2017-06-10 09:38 madrabbit
阅读(1316)
评论(0)
推荐(0)
2017年6月7日
(笔记)斯坦福机器学习第六讲--朴素贝叶斯
摘要: 本讲内容 1. Naive Bayes(朴素贝叶斯) 2.Event models(朴素贝叶斯的事件模型) 3.Neural network (神经网络) 4.Support vector machines(支持向量机) 1.朴素贝叶斯 上讲中的垃圾邮件问题有几个需要注意的地方: (1) 一个单词只
阅读全文
posted @ 2017-06-07 19:34 madrabbit
阅读(1161)
评论(0)
推荐(0)
2017年6月3日
(笔记)斯坦福机器学习第五讲--生成学习算法
摘要: 本讲内容 1. Generative learning algorithms(生成学习算法) 2. GDA(高斯判别分析) 3. Naive Bayes(朴素贝叶斯) 4. Laplace Smoothing(拉普拉斯平滑) 1.生成学习算法与判别学习算法 判别学习算法:直接学习 或者学习一个假设
阅读全文
posted @ 2017-06-03 15:02 madrabbit
阅读(2733)
评论(0)
推荐(0)
2017年6月2日
(笔记)斯坦福机器学习第四讲--牛顿法
摘要: 本讲内容 1. Newton's method(牛顿法) 2. Exponential Family(指数簇) 3. Generalized Linear Models(GLMs)(广义线性模型) 1.牛顿法 假如有函数, 寻找使得 牛顿法的步骤如下: (1) initialize as some
阅读全文
posted @ 2017-06-02 09:29 madrabbit
阅读(698)
评论(0)
推荐(0)
2017年5月25日
(笔记)斯坦福机器学习第三讲--欠拟合与过拟合
摘要: 本讲内容: 1.locally weighted regression (局部加权回归算法) 2.Probabilistic interpretation of linear regression (线性回归的概率解释) 3.Logistic regression (逻辑回归算法) 4.Digres
阅读全文
posted @ 2017-05-25 09:51 madrabbit
阅读(548)
评论(0)
推荐(0)
2017年5月24日
(笔记)斯坦福机器学习第二讲--监督学习应用与梯度下降
摘要: 本讲内容: 1.linear regression(线性回归) 2.gradient descent(梯度下降) 3.normal equations(正规方程组) 首先引入一些符号: (1) 训练样本的数量 (2) 输入变量/ 输入特征 (3) 输出变量/ 目标变量 (4) 第i个训练样本 (5)
阅读全文
posted @ 2017-05-24 00:14 madrabbit
阅读(1058)
评论(1)
推荐(0)
公告
昵称:
madrabbit
园龄:
8年1个月
粉丝:
9
关注:
0
+加关注
<
2025年6月
>
日
一
二
三
四
五
六
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
1
2
3
4
5
6
7
8
9
10
11
12
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
随笔分类
machine learning(8)
随笔档案
2017年6月(8)
2017年5月(2)
阅读排行榜
1. (笔记)斯坦福机器学习第九讲--经验风险最小化(5585)
2. (笔记)斯坦福机器学习第五讲--生成学习算法(2733)
3. (笔记)斯坦福机器学习第十讲--特征选择(1398)
4. (笔记)斯坦福机器学习第七讲--最优间隔分类器(1316)
5. (笔记)斯坦福机器学习第六讲--朴素贝叶斯(1161)
评论排行榜
1. (笔记)斯坦福机器学习第九讲--经验风险最小化(1)
2. (笔记)斯坦福机器学习第二讲--监督学习应用与梯度下降(1)
推荐排行榜
1. (笔记)斯坦福机器学习第九讲--经验风险最小化(3)
最新评论
1. Re:(笔记)斯坦福机器学习第九讲--经验风险最小化
正在学习
--寂寞的小乞丐
2. Re:(笔记)斯坦福机器学习第二讲--监督学习应用与梯度下降
路过BD
--尘孤月
点击右上角即可分享