摘要:[TOC] 数据挖掘入门系列教程(七点五)之神经网络介绍 这篇博客是是为了下一篇博客“使用神经网络破解验证码”做准备。主要是对神经网络的原理做介绍。同时这篇博客主要是参考了西瓜书,如果身边有西瓜书的同学,强烈建议直接去看西瓜书,至于我这篇博客,你就当个乐子好了(因为你会发现内容与西瓜书很相似)。 简 阅读全文
posted @ 2020-04-02 23:48 段小辉 阅读 (77) 评论 (2) 编辑
摘要:数据挖掘入门系列教程(七)之朴素贝叶斯进行文本分类 贝叶斯分类算法是一类分类算法的总和,均以贝叶斯定理为基础,故称之为贝叶斯分类。而朴素贝叶斯分类算法就是其中最简单的分类算法。 朴素贝叶斯分类算法 朴素贝叶斯分类算法很简单很简单,就一个公式如下所示: $$ P(B|A) = \frac{P(A|B) 阅读全文
posted @ 2020-03-29 16:46 段小辉 阅读 (69) 评论 (0) 编辑
摘要:[TOC] 数据挖掘入门系列教程(六)之数据集特征选择 这一篇博客主要来如何介绍从数据集中抽取合适的特征。 我们知道,在数据挖掘中,数据的训练算法很重要,但是同样我们对于数据的前置处理也不可忽视。因为我们对某个数据集的描述是使用特征来表示的。在前面的博客中无论我们是获得商品交易的相关性关系,还是使用 阅读全文
posted @ 2020-03-24 23:08 段小辉 阅读 (182) 评论 (0) 编辑
摘要:数据挖掘入门系列教程(五)之Apriori算法Python实现加载数据集获得训练集频繁项的生成生成规则获得support获得confidence获得Lift进行验证总结参考 数据挖掘入门系列教程(五)之Apriori算法Python实现 在上一篇博客中,我们介绍了Apriori算法的算法流程,在这一 阅读全文
posted @ 2020-03-19 20:08 段小辉 阅读 (138) 评论 (0) 编辑
摘要:[TOC] 数据挖掘入门系列教程(四点五)之Apriori算法 Apriori(先验)算法 关联规则 学习的经典算法之一,用来寻找出数据集中频繁出现的数据集合。如果看过以前的博客,是不是想到了这个跟 "数据挖掘入门系列教程(一)之亲和性分析" 这篇博客很相似?Yes,的确很相似,只不过在这篇博客中, 阅读全文
posted @ 2020-03-17 00:25 段小辉 阅读 (90) 评论 (0) 编辑
摘要:数据挖掘入门系列教程(四)之基于scikit-lean决策树处理Iris加载数据集数据特征训练随机森林调参工程师结尾 数据挖掘入门系列教程(四)之基于scikit-lean决策树处理Iris 在上一篇博客,我们介绍了决策树的一些知识。如果对决策树还不是很了解的话,建议先阅读上一篇博客,在来学习这一篇 阅读全文
posted @ 2020-03-15 00:54 段小辉 阅读 (116) 评论 (0) 编辑
摘要:数据挖掘入门系列教程(三点五)之决策树 本来还是想像以前一样,继续学习《 Python数据挖掘入门与实践 》的第三章“决策树”,但是这本书上来就直接给我怼了一大串代码,对于 基本上没有什么介绍,可直接把我给弄懵逼了,主要我只听过决策树还没有认真的了解过它。 这一章节主要是对决策树做一个介绍,在下一个 阅读全文
posted @ 2020-03-14 00:05 段小辉 阅读 (141) 评论 (0) 编辑
摘要:数据挖掘入门系列教程(三)之scikit-learn框架基本使用(以K近邻算法为例)简介scikit-learn 估计器加载数据集进行fit训练设置参数预处理流水线结尾 数据挖掘入门系列教程(三)之scikit-learn框架基本使用(以K近邻算法为例) 数据挖掘入门系列博客:https://www 阅读全文
posted @ 2020-03-11 17:25 段小辉 阅读 (90) 评论 (0) 编辑
摘要:数据挖掘入门系列教程(二点五)之K-近邻算法和距离度量介绍简介距离度量欧式距离曼哈顿距离余弦距离 数据挖掘入门系列教程(二点五)之K-近邻算法和距离度量介绍 简介 K-近邻算法,又名最近邻居算法,其英文缩写是KNN(k-nearest neighbors)。是一种用于分类和回归的非参数统计方法。其可 阅读全文
posted @ 2020-03-09 22:31 段小辉 阅读 (115) 评论 (0) 编辑
摘要:数据挖掘入门系列教程(二)之分类问题OneR算法 数据挖掘入门系列博客:https://www.cnblogs.com/xiaohuiduan/category/1661541.html 项目地址:GitHub 在上一篇博客中,我们通过分析亲和性来寻找数据集中数据与数据之间的相关关系。这篇博客我们会 阅读全文
posted @ 2020-03-09 00:12 段小辉 阅读 (156) 评论 (0) 编辑