摘要: 笔者为了提高自己的情商,因此暂停博客一段时间,整天学计算机人都不对了,除了计算机之外还有更为广阔的世界着我去探索。当然,做好自己的本职工作是探索其他领域的基本要求。论沧海桑田,斗转星移,无数个春秋过去,什么时候才能够找到自己的真我呢?更重要的是,何时才能找到那个Ta呢?阅读全文
posted @ 2019-04-17 21:37 Geeksongs 阅读(103) 评论(0) 编辑
摘要: 如何求协方差矩阵 一. 协方差定义 X、Y 是两个随机变量,X、Y 的协方差 cov(X, Y) 定义为: 其中: 、 二. 协方差矩阵定义 矩阵中的数据按行排列与按列排列求出的协方差矩阵是不同的,这里默认数据是按行排列。即每一行是一个observation(or sample),那么每一列就是一个阅读全文
posted @ 2019-07-15 17:35 Geeksongs 阅读(23) 评论(0) 编辑
摘要: 首先我们上代码: 输出: 前面三行的矩阵只有0和1两个值,每一个矩阵都有8个0或者1,这里说明了我们的词库当中一共有8个不同的英语词汇,由于之前我们使用了代码: 因此我们已经过滤掉了a an tne 这种英语里的冠词,每一个名次的单复数,动词的过去,过去完成时等词,比如说我们的play和played阅读全文
posted @ 2019-07-15 15:24 Geeksongs 阅读(16) 评论(0) 编辑
摘要: 一般来讲,我们图像的兴趣点都有边缘(edges)和角点(corners),这是两种比较常见的兴趣点类型,我们现在来撸撸代码,看一个提取美女兴趣点的例子: 最后我们显示得到的结果红色部分就是我们的兴趣点所在位置: 虽然结果没有深色图像的好,但也是可以很明显地看到兴趣点被我们提取出来了。阅读全文
posted @ 2019-07-15 15:08 Geeksongs 阅读(18) 评论(0) 编辑
摘要: 这个算法中文名为k均值聚类算法,首先我们在二维的特殊条件下讨论其实现的过程,方便大家理解。 第一步.随机生成质心 由于这是一个无监督学习的算法,因此我们首先在一个二维的坐标轴下随机给定一堆点,并随即给定两个质心,我们这个算法的目的就是将这一堆点根据它们自身的坐标特征分为两类,因此选取了两个质心,什么阅读全文
posted @ 2019-07-14 22:54 Geeksongs 阅读(19) 评论(0) 编辑
摘要: 输出: 从这个结果当中我们可以看到我们的tensorflow之前是定义了一个一行两列的矩阵,之后是定义了一个两行一列的矩阵,因此第一个显示的shape为(1,2),第二个显示的shape为(2,1)就是这么来的。然后我们开始创建会话,tensorflow一般情况下创建了绘画才可以进行正常的计算。 创阅读全文
posted @ 2019-07-09 13:04 Geeksongs 阅读(16) 评论(0) 编辑
摘要: 我们在线性回归模型当中,时常遇到将w与b吸入w^的向量形式写为:w^=(x,b)进而写成y=w^(t)x^的形式,这仅仅是为了某些人看公式的方便,而不是处于实际的作用。具体将这两个参数吸入为向量的过程,我们可以看看下面的方案: 其实 ˆ w和 ˆ x在数学当中分别称为增广权重向量和增广特征向量,计算阅读全文
posted @ 2019-07-09 11:01 Geeksongs 阅读(9) 评论(0) 编辑
摘要: 问题 说明: y、w为列向量,X为矩阵 式子演化 看到这个例子不要急着去查表求导,先看看它的形式,是u(w)∗v(w)的形式,这种形式一般求导较为复杂,因此为了简化运算,我们先把式子展开成下面的样子(注意:(Xw)T=wTXT): 然后就可以写成四个部分求导的形式如下(累加后求导=求导后累加): 求阅读全文
posted @ 2019-07-07 21:50 Geeksongs 阅读(26) 评论(0) 编辑
摘要: 当我们在求解梯度下降算法的时候,经常会用到正规方程来求解w的值,这个时候就用到正规方程来求解是最快的方法,但是正规方程又是怎么来的呢?我们来看看:首先我们设我们的损失函数为 MSE train,那么这个时候我们只需要对其求解偏导就好了,于是我们有∇ w MSE train = 0 。具体推导过程如下阅读全文
posted @ 2019-07-07 20:18 Geeksongs 阅读(26) 评论(0) 编辑
摘要: 我们在计算模型w的转置乘上x的时候,往往需要把w和x分别进行向量化然后运算,因为这样会使我们的计算机得到结果的时间更快,而且这种方法不管是在CPU还是在GPU上都是成立的,首先我们来看看代码: 第一种方法方法运用了向量化来计算,也就是numpy当中的dot函数来计算,第二种方法则是利用了我们传统的f阅读全文
posted @ 2019-07-07 11:25 Geeksongs 阅读(22) 评论(0) 编辑
摘要: 以上是之前我们所学习的sigmoid函数以及logistic函数,下面是我们代价函数的普遍定义形式: 虽然普遍形式是有了,当然这个函数也仅仅是对第i个x才成立,如果想要得到连续的x的值则需要不断累加第i个的代价的值。如果想要上面的那种形式来作为代价函数,那么我们得到的代价函数不是凸函数因此不可能进行阅读全文
posted @ 2019-07-05 13:42 Geeksongs 阅读(18) 评论(0) 编辑