随笔分类 -  机器学习

Machine Learning,相对宽泛的主题
摘要:贝叶斯算法基本原理 在机器学习中主要用于分类,已知样本X, 1. 首先计算$P(X|C_i)$,得出Ci类别包含样本X的先验概率; 2. 然后根据贝叶斯定理求后验概率$P(C_i|X)$,得到X属于Ci类别的后验概率; 3. 最后根据最大后验概率判断所属类别。 朴素贝叶斯分类 朴素的含义 朴素地假设 阅读全文
posted @ 2018-04-12 11:34 康行天下 阅读(550) 评论(0) 推荐(0)
摘要:逻辑回归从线性回归引申而来,对回归的结果进行 logistic 函数运算,将范围限制在[0,1]区间,并更改损失函数为二值交叉熵损失,使其可用于2分类问题(通过得到的概率值与阈值比较进行分类)。逻辑回归要求输入的标签数据是01分布(伯努利分布),而线性回归则是对任意连续值的回归。出世:由统计学家 D 阅读全文
posted @ 2018-03-16 23:29 康行天下 阅读(4175) 评论(0) 推荐(1)
摘要:SpaceNet 数据集 "SpaceNet" 是DigitalGlobe商业卫星公司提供的遥感图像集合,包含一些标记信息可用作机器学习研究. SpaceNet Challenge主页: https://spacenetchallenge.github.io/ 数据集下载命令: https://gi 阅读全文
posted @ 2017-12-29 16:58 康行天下 阅读(7580) 评论(0) 推荐(0)
摘要:线性回归 用$X=(x_1, x_2, ...,x_n)T \in \mathbb{R}{n\times p}$表示数据,用$y=(y_1, y_2, ...,y_n)T \in \mathbb{R}{n}$表示标签。对于一个样本$x_i$,它的输出值是其特征的线性组合: \[ \begin{equ 阅读全文
posted @ 2017-10-12 11:12 康行天下 阅读(1169) 评论(0) 推荐(0)
摘要:BING 论文《BING: Binarized Normed Gradients for Objectness Estimation at 300fps》 南开大学媒体计算实验室,CVPR2014 http://mmcheng.net/bing/comment page 9/ 论文翻译:http:/ 阅读全文
posted @ 2017-09-01 22:33 康行天下 阅读(2756) 评论(0) 推荐(0)
摘要:点到判决面的距离 点$x_0$到决策面$g(x)= w^Tx+w_0$的距离:$r={g(x)\over \|w\|}$ 广义线性判别函数 因任何非线性函数都可以通过级数展开转化为多项式函数(逼近),所以任何非线性判别函数都可以转化为广义线性判别函数。 Fisher LDA(线性判别分析) Fish 阅读全文
posted @ 2017-07-09 21:22 康行天下 阅读(1079) 评论(0) 推荐(0)
摘要:支持向量机就是使用了核函数的软间隔线性分类法,SVM可用于分类、回归和异常值检测(聚类)任务。“机”在机器学习领域通常是指算法,支持向量是指能够影响决策的变量。 示意图如下(绿线为分类平面,红色和蓝色的点为支持向量): SVM原理 由逻辑回归引入[^course] 逻辑回归是从特征中学习出一个二分类 阅读全文
posted @ 2017-07-02 21:00 康行天下 阅读(3428) 评论(8) 推荐(0)
摘要:明氏距离(Minkowski Distance) $$ d(x,y)=(\sum_{k=1}^n|x_k y_k|^s)^{1\over s} $$ s越大,某一维上的较大差异对最终差值的影响也越大. s=1, 曼哈顿距离 s=2, 欧式距离 s=∞,上确界距离(Supermum Distance) 阅读全文
posted @ 2017-07-01 23:43 康行天下 阅读(5615) 评论(0) 推荐(0)
摘要:本篇内容包括划分聚类方法中的k-means、k-means++,基于密度的DBSCAN以及层次聚类等聚类方法。 阅读全文
posted @ 2017-04-12 22:14 康行天下 阅读(3968) 评论(0) 推荐(2)
摘要:目录 "PCA思想" "问题形式化表述" "PCA之协方差矩阵" "协方差定义" "矩阵 特征值" "PCA运算步骤" "PCA理论解释" "最大方差理论" "性质" "参数k的选取" "数据重建" "主观理解" "应用" "代码示例" PCA思想 PCA主要用于数据降维,是一种无监督学习方法。主成 阅读全文
posted @ 2017-02-25 20:17 康行天下 阅读(5684) 评论(0) 推荐(0)
摘要:监督学习中通常通过对损失函数最优化(最小化)来学习模型。 本文介绍了几种损失函数和正则化项以及正则化对模型的影响。 损失函数 损失函数度量模型一次预测的好坏,风险函数度量平均意义下模型预测的好坏。 模型的输入输出是随机变量(X,Y)遵循联合分布P(X,Y),损失函数的期望是: \[ R_{exp}( 阅读全文
posted @ 2017-02-17 20:47 康行天下 阅读(8333) 评论(1) 推荐(1)