这篇记录的内容来自于Andrew Ng教授在coursera网站上的授课。 


 

1.监督学习(supervised learning):利用一组已知类别样本来调整分类器的参数。

例子:房价的预估(有房价的数据来估计房价)、GDP的发展趋势。

2.分类模型(classification model):预测某一样本属于某一类的概率。

例子:判读0~9中的一个数字。

3.回归模型(regression model):从离散的样本集合中预测连续的样本的输出值。

例子:预测二手车的售价(二手车的各种要素->售价)。


1.非监督学习(unsupervised learning):利用一组没有类别样本来让分类器来识别各种模式类型结构

例子:将网上相识内容聚集在一起、给你推送的知乎内容(社交网络)、市场分析。

2.聚类算法(clustering algorithm):对相似的数据进行分类的算法。

例子:基因的判别、新闻。

3.鸡尾酒会问题(cocktail party problem):语音识别问题。意思是解决语音识别技术(将杂音分离为若干人的说话声),能够同时听清十个人说话的能力。


 

1.一元线性回归:一个自变量,因变量和自变量为线性关系的回归模型。

h函数(hypothesis,中文为假设),$h_{\theta}{(x)}=\theta_{0}+\theta_{1}x$

J函数,代价函数,此处使用平方差函数(squared error cost function)

(x(i),y(i))第i样样本,输入为x,输出为y

最小化$\frac{1}{2m}\sum{(h_{\theta}(x^{(i)})-y^{(i)})^2}$

代价函数$J(\theta_{0},\theta_{1})$

等高线图(counter plot):相当于地理等高线图。对于同一个封闭的路径,路径上点所代表的误差是相同的。

我想,不用解释也看得懂吧。

2.梯度下降(gradient descent):一种贪心算法。通过每次找到该点梯度最小方向并迈出一定的步长,从而达到局部最小值的算法。

对于一元线性回归模型:$\theta_{j+1}:=\theta_{j}-\alpha\frac{\partial}{\partial\theta_{j}}J(\theta_{0},\theta_{1})$

赋值符号、步长、偏微分

步长太小,速度太慢;步长太大,很容易远离最小值。

3.Octave软件使用。

 posted on 2020-02-14 07:11  GreenDuck  阅读(158)  评论(0编辑  收藏  举报