05 2020 档案
Linux学习笔记-shell脚本中的位置参数
摘要:除了我们自定义的变量之外,shell内定了一些变量,且其名称是我们不能随意更改的,其中就有位置参数(positional parameter)变量。
阅读全文
机器学习笔记-Ridge回归、Lasso回归和弹性网回归
摘要:岭回归与Lasso回归的出现是为了解决线性回归出现的过拟合以及在通过正规方程方法求解
阅读全文
机器学习笔记-多项式回归
摘要:线性回归模型形式简单,有很好的解释性,但它有不少假设前提,其中最重要的一条就是数据之间存在着线性关系,但是在实际生活中,很多数据之间是非线性关系,虽然也可以用线性回归拟合非线性回归,但是效果将会很差。这个时候可以尝试使用多项式回归。
阅读全文
机器学习笔记-线性回归
摘要:线性模型试图学的一个通过特征的线性组合来进行预测的函数
阅读全文
机器学习笔记-坐标下降法
摘要:坐标下降法(Coordinate Descent)是一个简单但却高效的非梯度优化算法。
阅读全文
机器学习笔记-k均值聚类
摘要:k均值(k-means)算法是最为经典的基于划分的聚簇方法,是十大经典数据挖掘算法之一。
阅读全文
机器学习笔记-准确率、错误率、精确率、召回率、F1-Score、PR曲线 & ROC曲线
摘要:准确率、错误率、精确率、召回率、F1-Score、PR曲线 & ROC曲线
阅读全文
机器学习笔记-信息熵、条件熵、相对熵、交叉熵和互信息
摘要:熵 (Entropy) 这一词最初来源于热力学。1948年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以也被称为香农熵 (Shannon entropy)、信息熵 (information entropy)。
阅读全文
机器学习笔记-距离度量与相似度(三)余弦相似度
摘要:在机器学习问题中,通常将特征表示为向量的形式,所以在分析两个特征向量之间的相似性时,常用余弦相似度来表示。
阅读全文
机器学习笔记-k近邻算法
摘要:k近邻(k-NearestNeighbor, KNN)算法是一种基本分类与回归方法。
阅读全文
机器学习笔记-主成分分析(PCA)的数学原理
摘要:主成分分析(PCA)的数学原理
阅读全文
概率与统计-方差、协方差和协方差矩阵
摘要:方差、协方差与协方差矩阵的概念和意义
阅读全文
机器学习笔记-距离度量与相似度(二)马氏距离
摘要:马氏距离(Mahalanobis Distance) 马氏距离(Mahalanobis Distance)是由印度统计学家马哈拉诺比斯(P. C. Mahalanobis)提出的,表示数据的协方差距离。它是一种有效的计算两个未知样本集的相似度的方法。它考虑到数据特征之间的联系,并且是尺度无关的(sc
阅读全文
Linux学习笔记-shell脚本中${}的使用方法
摘要:${} 除了做${var}变量替换,还有什么功能呢?
阅读全文
机器学习笔记-距离度量与相似度(一)闵可夫斯基距离
摘要:在机器学习过程中,我们经常需要知道个体(样本)之间的差异大小,进而评价个体的相似性和类别,特征空间中两个样本(点)之间的距离就是两个样本相似性的一种反映。常见的分类和聚类算法,如K近邻、K均值(K means)、层次聚类等等都会选择一种距离或相似性的度量方法。根据数据特性的不同,可以采用不同的度量方
阅读全文
机器学习笔记--模型的方差与偏差
摘要:什么是模型的方差和偏差 我们经常用过拟合、欠拟合来定性地描述模型是否很好地解决了特定的问题。从定量的角度来说,可以用模型的偏差(Bias)与方差(Variance)来描述模型的性能。在有监督学习中,模型的期望泛化误差可以分解成三个基本量的和 偏差、方差和噪声。 偏差、方差和噪声 1)使用文字描述的方
阅读全文
浙公网安备 33010602011771号