随笔分类 - 机器学习篇-笔记
摘要:在说逻辑回归之前,可以先说一说逻辑回归与线性回归的区别: 逻辑回归与线性回归在学习规则形式上是完全一致的,它们的区别在于hθ(x(i))为什么样的函数 当hθ(x(i))=θTx(i)时,表示的是线性回归,它的任务是做回归用的。 当时,表示的是逻辑回归,假定模型服从二项分布,使用最大似然函数推导的,
阅读全文
摘要:对于m个样本 某模型的估计值为 计算样本的总平方和TSS(Total Sum of Squares): 计算残差平方和RSS(Residual Sum of Squares): RSS即误差平方和SSE(Sum of Squares for Error) 定义 R2=1-RSS/TSS R2越大,拟
阅读全文
摘要:最小二乘法是简单线性回归法,下面我将学习到的最小二乘法的推导过程列出来
阅读全文
摘要:线性回归 若只考虑两个特征变量我们可以建立线性方程: 对于多个特征变量我们可以建立: 是预测值,它与真实值存在一定的误差: 为预测值,y(i)为真实值。 误差ε(i)是独立同分布的,服从均值为0,方差为某定值σ2的高斯分布 为什么每个样本误差ε是独立同分布的? 答:误差可能是正的也可能是负的,它们之
阅读全文
摘要:1. 相关背景 在许多领域的研究与应用中,通常需要对含有多个变量的数据进行观测,收集大量数据后进行分析寻找规律。多变量大数据集无疑会为研究和应用提供丰富的信息,但是也在一定程度上增加了数据采集的工作量。更重要的是在很多情形下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性。如果分别对每个指标
阅读全文
摘要:机器学习中SVD总结 矩阵分解的方法 基本矩阵分解(Basic Matrix Factorization),basic MF分解。 正则化矩阵分解(Regularized Matrix Factorization)。 概率矩阵分解(Probabilistic Matrix Factorization
阅读全文
摘要:在学习机器学习之前熟悉一下机器学习相关的词,对今后的机器学习有一定的帮助,使得我们能够更为清晰的认识机器学习 此次的笔记只是一种简要的概括,具体的可以参照博客https://www.csdn.net/gather_27/MtTacg5sOTg2Ni1ibG9n.html 当然还有其它的,只要我们能够
阅读全文
摘要:1. 大数据时代究竟改变了什么? 思维方式 数据重要性:数据资源-->数据资产(增值) 方法论:基于知识的理论完美主义、基于数据的历史经验主义 数据分析: 统计学(抽样).......数据科学(大数据)、数据科学家(大数据+算法+更加丰富的业务知识) 计算智能: 复杂算法 简单算法(MapReduc
阅读全文

浙公网安备 33010602011771号