摘要:   今天心血来潮,看了一下ConvexOptimization,看到一开始描述直线的部分,真的感觉翻译得很棒。$$ y = \theta x_1 + (1 \theta) x_2 \qquad x1,x2 \in R^n \quad \theta \in R $$   这个式子很 阅读全文
posted @ 2019-06-19 16:41 FormerAutumn 阅读(162) 评论(0) 推荐(0) 编辑
摘要: Note sth about GMM(Gaussian Mixtrue Model) "高斯混合模型的终极理解" "高斯混合模型(GMM)及其EM算法的理解" 这两篇博客讲得挺好,同时讲解了如何解决GMM参数问题的EM算法,其实GMM式子没有什么高深的地方,都是概率论的东西,主要是构思比较巧妙。 动 阅读全文
posted @ 2019-06-17 11:55 FormerAutumn 阅读(154) 评论(0) 推荐(0) 编辑
摘要: Note sth about SVM(Support Vector Machine) "支持向量机(SVM)从入门到放弃再到掌握" 这篇博客讲得挺仔细。 动机:   SVM的中文名字——支持向量机。本质是一种线性的二分类器。如果涉及多分类问题,一般有两种方法(假设一共有k类):1、训练k个 阅读全文
posted @ 2019-06-16 21:52 FormerAutumn 阅读(164) 评论(0) 推荐(0) 编辑
摘要: Note sth about LDA(Linear Discriminant Analysis) 这篇来说说LDA的复习,LDA在第二次作业的博客中也提及了,但是那是作业思考,所以决定再开一篇只说LDA的。 动机:   LDA的中文名字——线性判别分析。其主要功能还是降维(N $\righ 阅读全文
posted @ 2019-06-14 10:56 FormerAutumn 阅读(175) 评论(0) 推荐(0) 编辑
摘要: Note sth about PCA(Principal Component Analysis)   ML6月20日就要考试了,准备~~日更~~博客,来记录复习一下这次ML课所学习的一些方法。 博客是在参考老师的ppt,以及 "戳这里,学习播客" 之后完成的,主要运用ppt的公式,因为博客 阅读全文
posted @ 2019-06-13 21:46 FormerAutumn 阅读(184) 评论(0) 推荐(0) 编辑
摘要: "学习播客_KLDA" (推导得很通俗,下面的推导就是源于此篇博客) 第一部分:按照自己的理解,模仿~~抄!~~学习播客来完成一下KLDA的推导。 第二部分:对于Kernel的思考 KLDA: 顾名思义,就是把Kernel运用到了LDA上,下面直接推导公式。(原始空间数据$x$,映射之后数据$\ph 阅读全文
posted @ 2019-05-30 10:40 FormerAutumn 阅读(388) 评论(0) 推荐(0) 编辑
摘要: 第二次机器学习的作业完成了,写一下总结。 作业要求: 实现用线性判别分析(LDA,LinearDiscriminantAnalysis)的二分类,用KNN比较LDA和PCA在有监督学习下的分类区别。 开题: 第一眼看到题目,“用KNN比较LDA和PCA在有监督学习下的分类区别。”这句话,是我自己理解 阅读全文
posted @ 2019-05-23 22:00 FormerAutumn 阅读(262) 评论(0) 推荐(0) 编辑
摘要: CV学习进度条记录,也是SRTP的进度记录。 阶段一(2019.4 2019.5): 1、opencv简单操作学习。(实现了一些基础操作,从颜色通道到边缘轮廓,2019.4.22完成) 2、linux学习。(发现Morvanzhou里面有这一块内容~~预期闲暇之余看看~~) 阶段二(2019.5 2 阅读全文
posted @ 2019-05-10 22:31 FormerAutumn 阅读(133) 评论(0) 推荐(0) 编辑
摘要: 第一次机器学习的作业完成了,按照先前做实作的习惯来写一下总结和思考。 作业要求: 对 ,`Yale_32x32 data_batch_1(Cifar) Cifar (r,g,b)`彩图,其余为灰度图数据集已给出了正确标签以作为评估验证。 此外,作业要求组成来自不同学院的3 4人的小队,以提交实验报告 阅读全文
posted @ 2019-05-10 12:23 FormerAutumn 阅读(156) 评论(0) 推荐(0) 编辑
摘要: "git地址" 采用jupyter notebook进行编程,语言为python。 感谢博主—— "戳" 这类东西真的是不是天天打,就是打过就忘。。 有志者事竟成,破釜沉舟,百二秦关终属楚。 苦心人天不负,卧薪尝胆,三千越甲可吞吴。 希望,在最后一年可以专心做自己喜欢的事情的本科生涯,不要留下遗憾。 阅读全文
posted @ 2019-04-22 19:31 FormerAutumn 阅读(151) 评论(0) 推荐(0) 编辑