随笔分类 -  AI_Learning

摘要:Factor_Analysis(因子分析) "Factor Analysis 简书" :较好理解的解释,其中公式有一定的推导(仅展现关键步骤,细节大多需要自行补充),基本为结论式。 感性层面理解: 首先,明确FA和PCA的区别。PCA做的是对某个样本,试图寻找到一组方差尽量大的线性表示(基向量),以 阅读全文
posted @ 2019-09-13 08:47 FormerAutumn 阅读(366) 评论(0) 推荐(0)
摘要:"学习播客_KLDA" (推导得很通俗,下面的推导就是源于此篇博客) 第一部分:按照自己的理解,模仿~~抄!~~学习播客来完成一下KLDA的推导。 第二部分:对于Kernel的思考 KLDA: 顾名思义,就是把Kernel运用到了LDA上,下面直接推导公式。(原始空间数据$x$,映射之后数据$\ph 阅读全文
posted @ 2019-05-30 10:40 FormerAutumn 阅读(439) 评论(0) 推荐(0)
摘要:第二次机器学习的作业完成了,写一下总结。 作业要求: 实现用线性判别分析(LDA,LinearDiscriminantAnalysis)的二分类,用KNN比较LDA和PCA在有监督学习下的分类区别。 开题: 第一眼看到题目,“用KNN比较LDA和PCA在有监督学习下的分类区别。”这句话,是我自己理解 阅读全文
posted @ 2019-05-23 22:00 FormerAutumn 阅读(277) 评论(0) 推荐(0)
摘要:CV学习进度条记录,也是SRTP的进度记录。 阶段一(2019.4 2019.5): 1、opencv简单操作学习。(实现了一些基础操作,从颜色通道到边缘轮廓,2019.4.22完成) 2、linux学习。(发现Morvanzhou里面有这一块内容~~预期闲暇之余看看~~) 阶段二(2019.5 2 阅读全文
posted @ 2019-05-10 22:31 FormerAutumn 阅读(138) 评论(0) 推荐(0)
摘要:对于双线性插值计算的理解: 对于某点$(x_i,y_i)$进行插值,选取4邻域上的点,对 先后做插值,第二次做插值会需要第一次的结果,直接代入即可,故为两次有顺序的插值,计算规律即使用斜率,三点(需要插值的点在中间$(x_1,y_1)$)一线。 $$ \frac { y1 y0 } { x1 x0 阅读全文
posted @ 2019-03-17 10:40 FormerAutumn 阅读(1878) 评论(0) 推荐(0)