学习
学习,是一个奇幻的词,仅就知识而言,略显生硬,可有时在复杂的情境里,焦灼的厘清一丝丝的确定,心里却知道它也是不确定的。
今天要讲的是最近两周的学习,两件事,Ng的机器学习和轨迹。
第一件,刚了解一点监督的皮毛,从线性回归开始,Hypothesis,这一个词意蕴深厚,几乎包含问题的各个方面。线性回归代表一种线性看待世界的眼光,如果这样,很多事就简单了。达到的目标是损失函数最小,也就是Hypothesis和真实的差距达到最小,以此来求解Hypothesis的参数,得到简单的人们想要的简单的Hypothesis。如果要预测的是硬币的两面,Logistics Regression,线性回归作为Logistics函数自变量,这样Htheta(x)属于[0,1],求解一样。至此,感觉到还是数学的求解方程,哪里是学习?没有自主的样子。接下来,神经网络,神奇的是Hidden Layer,经过Hidden Layer的每一层,神经网络学习到自己的特征,每一层的每一个单元的结果由上一层的Logistics函数求得,最小化损失函数,参数(权值)由一个大矩阵表示,损失函数偏微分求解时会用到反向传播算法(Back Propogation)。最后还有一件很重要的事,评价。评价,既是对错误的定位,也是面临无头苍蝇,随意尝试的出路。包括Bias、Variance,学习曲线,single realnumber,precision、recall。
第二件,轨迹。轨迹,可以表示存在过,表示人与人的关系或者芸芸众生的期待和无奈。距离度量和聚类,先研究的是关于点的距离度量和聚类,埋头看两周英文的大牛文章,对英语亲切一些了。距离度量,重点四种,Hausdorff、Longest Common Subsequence、Dynamic Time Wraping、Edit Distance。聚类,一种,Density Based Spatial Clustering of Application with Noise。TRACLUS在上述点的距离度量和聚类基础上,对轨迹进行扩展,形成一种轨迹聚类的框架方法,接下来,研究算法代码。

浙公网安备 33010602011771号