2017年12月3日
摘要:
(一)数据抓取概要为什么要学会抓取网络数据?对公司或对自己有价值的数据,80%都不在本地的数据库,它们都散落在广大的网络数据,这些数据通常都伴随着网页的形式呈现,这样的数据我们称为非结构化数据如果我们能想出办法,把这些非结构化的...
阅读全文
posted @ 2017-12-03 10:58
朱元禄
阅读(345)
推荐(0)
摘要:
(一)数据抓取概要为什么要学会抓取网络数据?对公司或对自己有价值的数据,80%都不在本地的数据库,它们都散落在广大的网络数据,这些数据通常都伴随着网页的形式呈现,这样的数据我们称为非结构化数据如果我们能想出办法,把这些非结构化的数据转化为结构化的数据,在跟自己的本地数...
阅读全文
posted @ 2017-12-03 10:58
朱元禄
阅读(324)
推荐(0)
2017年11月23日
摘要:
哲学告诉我们:世界是一个普遍联系的有机整体,现象之间客观上存在着某种有机联系,一种现象的发展变化,必然受与之关联的其他现象发展变化的制约与影响,在统计学中,这种依存关系可以分为相关关系和回归函数关系两大类,本次分享,jack...
阅读全文
posted @ 2017-11-23 10:42
朱元禄
阅读(5369)
推荐(0)
摘要:
哲学告诉我们:世界是一个普遍联系的有机整体,现象之间客观上存在着某种有机联系,一种现象的发展变化,必然受与之关联的其他现象发展变化的制约与影响,在统计学中,这种依存关系可以分为相关关系和回归函数关系两大类,本次分享,jacky将跟您分享如何用python做相关关系...
阅读全文
posted @ 2017-11-23 10:42
朱元禄
阅读(419)
推荐(0)
2017年11月3日
摘要:
决策树是最经常使用的数据挖掘算法基本概念决策树(Decision Tree)它通过对训练样本的学习,并建立分类规则,然后依据分类规则,对新样本数据进行分类预测,属于有监督学习。优点1)决策树易于理解和实现使用者不需要了解很多的背景知识,通过决策树就能够直观形象的了...
阅读全文
posted @ 2017-11-03 09:23
朱元禄
阅读(278)
推荐(0)
摘要:
决策树是最经常使用的数据挖掘算法,本次分享jacky带你深入浅出,走进决策树的世界基本概念决策树(Decision Tree)它通过对训练样本的学习,并建立分类规则,然后依据分类规则,对新样本数据进行分类预测,属于有监督学习。优点1)决策树易于理解和实现使用者不需...
阅读全文
posted @ 2017-11-03 09:23
朱元禄
阅读(2118)
推荐(0)
2017年10月28日
摘要:
当特征选择完成之后,就可以直接训练模型了,但是可能由于特征矩阵过大导致计算量大,训练时间长的问题;因此,降低特征矩阵维度,也是必不可少的,主成分分析就是最常用的降维方法,在减少数据集的维度的同时,保持对方差贡献最大的特征,在sk...
阅读全文
posted @ 2017-10-28 21:18
朱元禄
阅读(289)
推荐(0)
摘要:
当特征选择完成之后,就可以直接训练模型了,但是可能由于特征矩阵过大导致计算量大,训练时间长的问题;因此,降低特征矩阵维度,也是必不可少的,主成分分析就是最常用的降维方法,在减少数据集的维度的同时,保持对方差贡献最大的特征,在sklearn中,我们使用PCA类进行主成分...
阅读全文
posted @ 2017-10-28 21:18
朱元禄
阅读(198)
推荐(0)
摘要:
当特征选择完成之后,就可以直接训练模型了,但是可能由于特征矩阵过大导致计算量大,训练时间长的问题;因此,降低特征矩阵维度,也是必不可少的,主成分分析就是最常用的降维方法,在减少数据集的维度的同时,保持对方差贡献最大的特征,在sklearn中,我们使用PCA类进行主成分分析。 主成分分析(Princi
阅读全文
posted @ 2017-10-28 21:18
朱元禄
阅读(257)
推荐(0)
2017年10月26日
摘要:
什么特征选择特征选择 ( Feature Selection )也称特征子集选择( Feature Subset Selection , FSS ) ,或属性选择( Attribute Selection ) ,是指从全部特征中选取一个特征子集,使构造出来的模型更好。...
阅读全文
posted @ 2017-10-26 15:47
朱元禄
阅读(438)
推荐(0)