摘要: 最近的一次面试经历中,有被问到过随机森林为什么要用有放回的随机采样。平时的自己确实没有去仔细想过这些问题,所以最终惨淡而归。 好了,回到正题吧,随机森林是可以降低模型的方差,这里借鉴了下其它同学的回答,记录一下。 1. 如果不放回抽样,那么每棵树用的样本完全不同,基学习器之间的相似性小,投票结果差, 阅读全文
posted @ 2019-12-25 09:15 MaiYatang 阅读(2453) 评论(0) 推荐(0)
摘要: 在经过一天的浏览csdn,博客园后,总算是对gabor滤波器有了一个大概的了解,所以趁还热着,赶紧记录一下。写的话,先给自己梳理下要写什么吧:1. 什么是gabor滤波器,公式定义2. gabor滤波器的代码实现3. 实验结果图4. 借鉴的资料1. gabor滤波器简介(主要copy吧) 在图像处... 阅读全文
posted @ 2016-01-16 16:56 MaiYatang 阅读(16509) 评论(0) 推荐(0)
摘要: DLA起源之解 考虑一个样本集合X=[x1,x2...xN],每个样本属于C个类中的一个。我们可以使用类似于PCA,LDA的线性降维方法将x由m维降至d维(m>d)。但是线性降维方法存在一些问题,例如LDA中的求逆运算,经常可能因为矩阵的奇异性是降维结果恶化。而这里介绍的DLA方法可以避免这个问题。对了忘了给DLA一个'名正言顺'的名字,全名就是'Discriminative Locality A... 阅读全文
posted @ 2015-09-21 16:30 MaiYatang 阅读(925) 评论(0) 推荐(0)
摘要: 主要框架 discriminant function misclassification measure the associated loss the updating method 下面的详解主要都是1-NN分类器的背景下讲述的 discriminant function In the case of 1-NN classifier, the discriminant function... 阅读全文
posted @ 2015-09-18 15:13 MaiYatang 阅读(644) 评论(0) 推荐(0)
摘要: 问题描述 一个d 维的特征向量 x=(x1,x2,...xd)T,属于M个类Ck,k=1,2,...M,在NN分类器中,每个类有nk个prototypes,记为mkj,j=1,2,...nk&&k=1,2,...M。 总体框架 特征向量x判定给离它最近的prototype所在的类,每个prototype的decision region叫做Voroni cell,而所有同类的Voronoi cell... 阅读全文
posted @ 2015-09-06 20:49 MaiYatang 阅读(1676) 评论(0) 推荐(0)
摘要: 标题 # 一级标题 ## 二级标题 ### 三级标题 (PS:总共六级标题)列表 无序表:文字前加上 - 或 *即可 有序表:文字前加1. 2. 3. 即可引用 只需要在文本前加入 > 即可插入链接 将链接文字放入[]中,旁边的()中写入链接地址插入图片 与插入链接类似,[] 中放... 阅读全文
posted @ 2015-09-02 14:47 MaiYatang 阅读(195) 评论(0) 推荐(0)