见贤思小齐,知足常乐呵

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

随笔分类 -  机器学习

摘要:https://www.cnblogs.com/Zhi-Z/p/8728168.html 阅读全文
posted @ 2018-11-22 10:53 Suckseedeva 阅读(852) 评论(0) 推荐(0)

摘要: 阅读全文
posted @ 2017-09-19 15:30 Suckseedeva 阅读(417) 评论(0) 推荐(0)

摘要:1. 原理和理论基础(参考) 2. Spark代码实例: 1)windows 单机 2)集群模式 需要打包,然后通过spark-submit 提交到yarn client或者cluster中: spark-submit --class myNaiveBayes --master yarn Scala 阅读全文
posted @ 2016-11-22 11:52 Suckseedeva 阅读(1258) 评论(0) 推荐(0)

摘要:参考资料: 在线免费书籍 http://neuralnetworksanddeeplearning.com/chap1.html Chapter 1 1. perceptron 感知机 it's a device that makes decisions by weighing up evidenc 阅读全文
posted @ 2016-10-21 18:18 Suckseedeva 阅读(344) 评论(0) 推荐(0)

摘要:1. PageRank http://blog.csdn.net/hguisu/article/details/7996185 2. Connected Components 3. Triangle Counting 例子: users.txt followers.txt 算法实战: 阅读全文
posted @ 2016-09-28 16:35 Suckseedeva 阅读(3820) 评论(0) 推荐(0)

摘要:1. sgn 函数 2. sigmoid 函数 3. ReLU 函数 y=max(x,0) 这种函数的设计启发来自于生物神经元对于激励的线性响应,以及当低于某个阈值后就不再响应的模拟。 阅读全文
posted @ 2016-09-18 16:36 Suckseedeva 阅读(6703) 评论(0) 推荐(0)

摘要:梯度下降(GD,Gradient descend)是最小化风险函数、损失函数的一种常用方法 随机梯度下降和批量梯度下降是两种迭代求解思路。 阅读全文
posted @ 2016-07-15 16:41 Suckseedeva 阅读(257) 评论(0) 推荐(0)

摘要:聚类 和 k-means简单概括。 聚类是一种 无监督学习 问题,它的目标就是基于 相似度 将相似的子集聚合在一起。 k-means算法是聚类分析中使用最广泛的算法之一。它把n个对象根据它们的属性分为k个聚类,以便使得所获得的聚类满足: 同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。 k 阅读全文
posted @ 2016-06-30 18:00 Suckseedeva 阅读(681) 评论(0) 推荐(0)

摘要:回归问题概括: 1) 数据 2) 假设的模型,即一个含有未知的参数的函数。通过学习,可以估计出参数。然后利用这个模型去预测/分类新的数据 回归和分类: 都属于有监督的学习 分类返回的是明确的类别信息,0 or 1,是 or 否 回归返回的是,某一个值或者范围的取值概率。如果把概率大小跟最终类别关联起 阅读全文
posted @ 2016-06-28 13:47 Suckseedeva 阅读(675) 评论(0) 推荐(0)

摘要:Support vector machines 支持向量机,简称SVM 分类算法的目的是学会一个分类函数或者分类模型(分类器),能够把数据库中的数据项映射给定类别中的某一个,从而可以预测未知类别。 SVM是一种监督式学习的方法。 支持向量:支持或支撑平面上把两类类别划分开来的超平面的向量点 机:就是 阅读全文
posted @ 2016-06-27 15:53 Suckseedeva 阅读(480) 评论(0) 推荐(0)

摘要:1. 基础回顾 矩阵的奇异值分解 SVD (特别详细的总结,参考 http://blog.csdn.net/wangzhiqing3/article/details/7446444) 矩阵与向量相乘的结果与特征值,特征向量有关。 数值小的特征值对矩阵-向量相乘的结果贡献小 1)低秩近似 2)特征降维 阅读全文
posted @ 2016-06-08 14:53 Suckseedeva 阅读(10350) 评论(0) 推荐(1)

摘要:4. 假设检验 基础回顾: 假设检验,用于判断一个结果是否在统计上是显著的、这个结果是否有机会发生。 显著性检验 原假设与备择假设 常把一个要检验的假设记作 H0,称为原假设(或零假设) (null hypothesis) 与H0对立的假设记作H1,称为备择假设(alternative hypoth 阅读全文
posted @ 2016-06-06 14:11 Suckseedeva 阅读(1320) 评论(0) 推荐(1)

摘要:1. 逻辑回归是一种监督式的学习算法。 [ 监督式学习算法有两组变量:预测变量(自变量x)和目标变量(因变量y),通过这些变量(x,y),搭建一个可以由已知的预测变量值x,得到对应的目标变量值y。 重复训练这个模型,直到能够在训练数据集上达到预定的准确度。] 2. 逻辑回归是一个分类算法。 利用已知 阅读全文
posted @ 2016-05-26 23:55 Suckseedeva 阅读(556) 评论(0) 推荐(0)

摘要:线性回归的模型是:y=theta0*x+theta1 其中theta0,theta1是我们希望得到的系数和截距。 下面是代码实例: 1. 用自定义数据来看看格式: 2. 从文件中读取数据: 阅读全文
posted @ 2016-04-19 10:57 Suckseedeva 阅读(557) 评论(0) 推荐(0)