随笔分类 -  机器学习

摘要:By Kubi Code 朴素贝叶斯 参考[1] 事件A和B同时发生的概率为在A发生的情况下发生B或者在B发生的情况下发生AP(A∩B)=P(A)∗P(B|A)=P(B)∗P(A|B)所以有:P(A|B)=P(B|A)∗P(A)P(B) 对于给出的待分类项,求解在此项出现的条件下各个目标类别出现的概 阅读全文
posted @ 2019-10-31 18:12 笔记记忆 阅读(1086) 评论(0) 推荐(0)
摘要:By Kubi Code 文章目录 1. 有监督学习和无监督学习的区别 2. 正则化 3. 过拟合 3.1. 产生的原因 3.2. 解决方法 4. 泛化能力 5. 生成模型和判别模型 6. 线性分类器与非线性分类器的区别以及优劣 6.1. 特征比数据量还大时,选择什么样的分类器? 6.2. 对于维度 阅读全文
posted @ 2019-10-31 18:10 笔记记忆 阅读(426) 评论(0) 推荐(0)
摘要:1 人工神经网络 1.1 神经元 神经网络由大量的神经元相互连接而成。每个神经元接受线性组合的输入后,最开始只是简单的线性加权,后来给每个神经元加上了非线性的激活函数,从而进行非线性变换后输出。每两个神经元之间的连接代表加权值,称之为权重(weight)。不同的权重和激活函数,则会导致神经网络不同的 阅读全文
posted @ 2019-10-31 18:09 笔记记忆 阅读(281) 评论(0) 推荐(0)
摘要:转自 http://blog.csdn.net/xingzhedai/article/details/53144126 更多参考:http://blog.csdn.net/mafeiyu80/article/details/51446558 http://blog.csdn.net/caimouse 阅读全文
posted @ 2019-10-31 18:07 笔记记忆 阅读(350) 评论(0) 推荐(0)
摘要:转自http://www.cnblogs.com/chaosimple/p/3182157.html 一、统计学的基本概念 统计学里最基本的概念就是样本的均值、方差、标准差。首先,我们给定一个含有n个样本的集合,下面给出这些概念的公式描述: 均值: 标准差: 方差: 均值描述的是样本集合的中间点,它 阅读全文
posted @ 2019-10-31 18:06 笔记记忆 阅读(885) 评论(0) 推荐(0)
摘要:转自 http://ufldl.stanford.edu/wiki/index.php/Softmax%E5%9B%9E%E5%BD%92 简介 在本节中,我们介绍Softmax回归模型,该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签 可以取两个以上的值。 Softma 阅读全文
posted @ 2019-10-31 18:04 笔记记忆 阅读(861) 评论(0) 推荐(0)
摘要:目录链接 (1) 牛顿法 (2) 拟牛顿条件 (3) DFP 算法 (4) BFGS 算法 (5) L-BFGS 算法 阅读全文
posted @ 2019-10-31 17:58 笔记记忆 阅读(226) 评论(0) 推荐(0)
摘要:转自 :http://blog.csdn.net/aliceyangxi1987/article/details/73598857 学习曲线是什么? 学习曲线就是通过画出不同训练集大小时训练集和交叉验证的准确率,可以看到模型在新数据上的表现,进而来判断模型是否方差偏高或偏差过高,以及增大训练集是否可 阅读全文
posted @ 2019-10-31 17:57 笔记记忆 阅读(3338) 评论(0) 推荐(0)
摘要:学习了机器学习这么久,第一次真正用机器学习中的方法解决一个实际问题,一步步探索,虽然最后结果不是很准确,仅仅达到了0.78647,但是真是收获很多,为了防止以后我的记忆虫上脑,我决定还是记录下来好了。 1,看到样本是,查看样本的分布和统计情况 通常遇到缺值的情况,我们会有几种常见的处理方式 如果缺值 阅读全文
posted @ 2019-10-31 17:27 笔记记忆 阅读(319) 评论(0) 推荐(0)
摘要:浅述python中argsort()函数的用法 (1).先定义一个array数据 (2).现在我们可以看看argsort()函数的具体功能是什么: 输出定义为y=array([3,0,2,1,4,5])。 我们发现argsort()函数是将x中的元素从小到大排列,提取其对应的index(索引),然后 阅读全文
posted @ 2019-10-31 17:17 笔记记忆 阅读(418) 评论(0) 推荐(0)
摘要:决策树的优势就在于数据形式非常容易理解,而kNN的最大缺点就是无法给出数据的内在含义。 1:简单概念描述 决策树的类型有很多,有CART、ID3和C4.5等,其中CART是基于基尼不纯度(Gini)的,这里不做详解,而ID3和C4.5都是基于信息熵的,它们两个得到的结果都是一样的,本次定义主要针对I 阅读全文
posted @ 2019-10-31 17:15 笔记记忆 阅读(379) 评论(0) 推荐(0)
摘要:KNN算法很简单,大致的工作原理是:给定训练数据样本和标签,对于某测试的一个样本数据,选择距离其最近的k个训练样本,这k个训练样本中所属类别最多的类即为该测试样本的预测标签。简称kNN。通常k是不大于20的整数,这里的距离一般是欧式距离。 对于上边的问题,①计算测试样本与训练样本的距离,②选择与其最 阅读全文
posted @ 2019-10-31 17:14 笔记记忆 阅读(326) 评论(0) 推荐(0)
摘要:来源:https://www.cnblogs.com/volcao/p/9291551.html 一、基础理解 学习曲线作用: 学习曲线:随着训练样本的逐渐增多,算法训练出的模型的表现能力; 表现能力:也就是模型的预测准确率,使用均方误差表示;学习率上体现了模型相对于训练集和测试集两类数据的均方误差 阅读全文
posted @ 2019-10-30 16:54 笔记记忆 阅读(1467) 评论(0) 推荐(0)