随笔分类 -  machine learning

摘要:1、判别模型:求解P(Y|X)条件概率。 2、生成模型:求解P(Y,X)联合概率,然后较大者为预测值。 阅读全文
posted @ 2020-04-06 17:41 outthinker 阅读(162) 评论(0) 推荐(0) 编辑
摘要:一、核心思想:由部分估计整体 二、具体分析 (1)先举一个最简单的例子,如下: 转换成更专业一点的就是:现在有一个样本分布为A,我们从这个样本分布中获得了一部分样本a,极大似然就是要利用这部分a来估计A的分布; 做法就是对A构建模型,模型参数为Q,然后再构建极大似然函数表示在何种模型参数Q下可以最大 阅读全文
posted @ 2019-10-28 11:55 outthinker 阅读(289) 评论(0) 推荐(0) 编辑
摘要:1、贝叶斯定理: 2、朴素贝叶斯分类器 朴素贝叶斯分类的正式定义如下: 1、设为一个待分类项,而每个a为x的一个特征属性。 2、有类别集合。 3、计算。 4、如果,则。 那么现在的关键就是如何计算第3步中的各个条件概率。我们可以这么做: 1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。 阅读全文
posted @ 2019-08-22 21:01 outthinker 阅读(224) 评论(0) 推荐(0) 编辑
摘要:参考:https://blog.csdn.net/qq_41368247/article/details/82562165 阅读全文
posted @ 2019-05-17 16:50 outthinker 阅读(148) 评论(0) 推荐(0) 编辑
摘要:K-means是一种无监督式的聚类算法,KNN是一种有监督式的分类算法; 两者总结如下: 聚类算法是一种无监督学习算法。k均值算法是其中应用最为广泛的一种,算法接受一个未标记的数据集,然后将数据聚类成不同的组。K均值是一个迭代算法,假设我们想要将数据聚类成K个组,其方法为: K-means优点: 算 阅读全文
posted @ 2019-01-01 20:55 outthinker 阅读(269) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2018-08-28 09:34 outthinker 阅读(92) 评论(0) 推荐(0) 编辑
摘要:转载自知乎:https://zhuanlan.zhihu.com/p/28339662 阅读全文
posted @ 2018-05-08 08:47 outthinker 阅读(813) 评论(0) 推荐(0) 编辑
摘要:从香农的信息熵谈其起,再聊聊逻辑回归和softmax; softmax loss的梯度求导具体如下(全连接形式): 更一般的形式: 前向/反向实现代码如下的两个例子: 例一: class SoftmaxLayer: def __init__(self, name='Softmax'): pass d 阅读全文
posted @ 2018-05-07 21:36 outthinker 阅读(232) 评论(0) 推荐(0) 编辑
摘要:核心思想:简单的统计距离目标点最近的K个节点里数目最多的标签赋予目标点(给定已经标注好类别的训练集,然后对测试集中的样本进行分类); 步骤: 总结:距离度量、K值选取、分类决策规则 (1)距离度量: (2)K值选取: 涉及到近似误差和估计误差: (1)K值越大,近似误差越大,而估计误差越小; (1) 阅读全文
posted @ 2018-03-17 16:18 outthinker 阅读(587) 评论(0) 推荐(0) 编辑
摘要:非极大值抑制算法(nms) 1. 算法原理 非极大值抑制算法(Non-maximum suppression, NMS)的本质是搜索局部极大值,抑制非极大值元素。 2. 3邻域情况下NMS的实现 3邻域情况下的NMS即判断一维数组I[W]的元素I[i](2<=i<=W-1)是否大于其左邻元素I[i- 阅读全文
posted @ 2018-03-09 09:47 outthinker 阅读(43823) 评论(1) 推荐(3) 编辑
摘要:转载链接:http://blog.csdn.net/google19890102/article/details/46376603 一、集成方法(Ensemble Method) 集成方法主要包括Bagging和Boosting两种方法,随机森林算法是基于Bagging思想的机器学习算法,在Bagg 阅读全文
posted @ 2017-12-04 09:55 outthinker 阅读(478) 评论(0) 推荐(0) 编辑
摘要:转载链接:https://cosx.org/2011/12/stories-about-statistical-learning 阅读全文
posted @ 2017-12-04 09:19 outthinker 阅读(261) 评论(0) 推荐(0) 编辑
摘要:参考博客:http://blog.csdn.net/thither_shore/article/details/52311282 首先说明概念1:版本空间(version space)是概念学习中与已知数据集一致的所有假设(hypothesis)的子集集合。即是版本空间是假设空间中于样本满足一致的“ 阅读全文
posted @ 2017-12-04 09:10 outthinker 阅读(2199) 评论(0) 推荐(0) 编辑
摘要:知乎上看到一篇讲解矩阵的特征值和特征向量的文章,感觉写的很有意思,参考链接:https://www.zhihu.com/question/21874816 所以总结一下: 特征值就是拉伸的大小; 特征向量就是矩阵的运动方向; 当然变换前,这些特征向量需要正交,所以需要先使用SVD奇异值分解; 阅读全文
posted @ 2017-11-24 12:23 outthinker 阅读(1707) 评论(0) 推荐(0) 编辑
摘要:参考链接:http://blog.csdn.net/linkin1005/article/details/42869331 假设我们需要从某些候选模型中选择最适合某个学习问题的模型,我们该如何选择?以多元回归模型为例:,应该如何确定k的大小,使得该模型对解决相应的分类问题最为有效?如何在偏倚(bia 阅读全文
posted @ 2017-11-06 20:03 outthinker 阅读(1483) 评论(0) 推荐(1) 编辑
摘要:参考链接:http://www.360doc.com/content/17/0623/13/10408243_665793832.shtml 1、损失函数 最简单的理解就是,给定一个实例,训练的模型对它的预测结果错了,就要受到惩罚, 因此需要定义一个量度量预测错误的程度,而损失函数就是用来衡量错误的 阅读全文
posted @ 2017-11-06 19:57 outthinker 阅读(6826) 评论(0) 推荐(0) 编辑
摘要:转载:http://blog.csdn.net/google19890102/article/details/51030884 然后引入opencv中的pyrMeanShiftFiltering函数: pyrMeanShiftFiltering函数 对图像进行:均值偏移滤波 调用格式: 我们先借助M 阅读全文
posted @ 2017-10-29 15:19 outthinker 阅读(387) 评论(0) 推荐(0) 编辑
摘要:转载:http://www.cnblogs.com/xingshansi/p/6628785.html 阅读全文
posted @ 2017-10-29 14:54 outthinker 阅读(141) 评论(0) 推荐(0) 编辑
摘要:转载:http://www.cnblogs.com/Lin-chun/p/6875184.html 阅读全文
posted @ 2017-10-29 14:25 outthinker 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2017-05-15 11:45 outthinker 阅读(333) 评论(0) 推荐(0) 编辑