随笔分类 -  机器学习篇-笔记

摘要:在说逻辑回归之前,可以先说一说逻辑回归与线性回归的区别: 逻辑回归与线性回归在学习规则形式上是完全一致的,它们的区别在于hθ(x(i))为什么样的函数 当hθ(x(i))=θTx(i)时,表示的是线性回归,它的任务是做回归用的。 当时,表示的是逻辑回归,假定模型服从二项分布,使用最大似然函数推导的, 阅读全文
posted @ 2019-09-20 19:29 yg_staring 阅读(582) 评论(0) 推荐(0)
摘要:对于m个样本 某模型的估计值为 计算样本的总平方和TSS(Total Sum of Squares): 计算残差平方和RSS(Residual Sum of Squares): RSS即误差平方和SSE(Sum of Squares for Error) 定义 R2=1-RSS/TSS R2越大,拟 阅读全文
posted @ 2019-09-20 17:29 yg_staring 阅读(2454) 评论(0) 推荐(0)
摘要:最小二乘法是简单线性回归法,下面我将学习到的最小二乘法的推导过程列出来 阅读全文
posted @ 2019-09-18 19:32 yg_staring 阅读(206) 评论(0) 推荐(0)
摘要:线性回归 若只考虑两个特征变量我们可以建立线性方程: 对于多个特征变量我们可以建立: 是预测值,它与真实值存在一定的误差: 为预测值,y(i)为真实值。 误差ε(i)是独立同分布的,服从均值为0,方差为某定值σ2的高斯分布 为什么每个样本误差ε是独立同分布的? 答:误差可能是正的也可能是负的,它们之 阅读全文
posted @ 2019-09-18 16:10 yg_staring 阅读(261) 评论(0) 推荐(0)
摘要:1. 相关背景 在许多领域的研究与应用中,通常需要对含有多个变量的数据进行观测,收集大量数据后进行分析寻找规律。多变量大数据集无疑会为研究和应用提供丰富的信息,但是也在一定程度上增加了数据采集的工作量。更重要的是在很多情形下,许多变量之间可能存在相关性,从而增加了问题分析的复杂性。如果分别对每个指标 阅读全文
posted @ 2019-09-18 15:32 yg_staring 阅读(553) 评论(0) 推荐(0)
摘要:机器学习中SVD总结 矩阵分解的方法 基本矩阵分解(Basic Matrix Factorization),basic MF分解。 正则化矩阵分解(Regularized Matrix Factorization)。 概率矩阵分解(Probabilistic Matrix Factorization 阅读全文
posted @ 2019-09-18 15:21 yg_staring 阅读(333) 评论(0) 推荐(0)
摘要:在学习机器学习之前熟悉一下机器学习相关的词,对今后的机器学习有一定的帮助,使得我们能够更为清晰的认识机器学习 此次的笔记只是一种简要的概括,具体的可以参照博客https://www.csdn.net/gather_27/MtTacg5sOTg2Ni1ibG9n.html 当然还有其它的,只要我们能够 阅读全文
posted @ 2019-09-07 14:59 yg_staring 阅读(303) 评论(0) 推荐(0)
摘要:1. 大数据时代究竟改变了什么? 思维方式 数据重要性:数据资源-->数据资产(增值) 方法论:基于知识的理论完美主义、基于数据的历史经验主义 数据分析: 统计学(抽样).......数据科学(大数据)、数据科学家(大数据+算法+更加丰富的业务知识) 计算智能: 复杂算法 简单算法(MapReduc 阅读全文
posted @ 2019-09-04 17:47 yg_staring 阅读(200) 评论(0) 推荐(0)