摘要: 分类算法之k-近邻 分类算法之k-近邻 k-近邻算法采用测量不同特征值之间的距离来进行分类 优点:精度高、对异常值不敏感、无数据输入假定 缺点:计算复杂度高、空间复杂度高 使用数据范围:数值型和标称型 一个例子弄懂k-近邻 电影可以按照题材分类,每个题材又是如何定义的呢?那么假如两种类型的电影,动作 阅读全文
posted @ 2019-01-18 13:28 zhangqi0828 阅读(171) 评论(0) 推荐(0)
摘要: k-近邻算法案例分析 本案例使用最著名的”鸢尾“数据集,该数据集曾经被Fisher用在经典论文中,目前作为教科书般的数据样本预存在Scikit-learn的工具包中。 读入Iris数据集细节资料 from sklearn.datasets import load_iris # 使用加载器读取数据并且 阅读全文
posted @ 2019-01-18 13:28 zhangqi0828 阅读(813) 评论(0) 推荐(0)
摘要: estimator的工作流程 estimator的工作流程 在sklearn中,估计器(estimator)是一个重要的角色,分类器和回归器都属于estimator。在估计器中有有两个重要的方法是fit和transform。 fit方法用于从训练集中学习模型参数 transform用学习到的参数转换 阅读全文
posted @ 2019-01-18 13:26 zhangqi0828 阅读(761) 评论(0) 推荐(0)
摘要: 模型检验-交叉验证 模型检验-交叉验证 一般在进行模型的测试时,我们会将数据分为训练集和测试集。在给定的样本空间中,拿出大部分样本作为训练集来训练模型,剩余的小部分样本使用刚建立的模型进行预测。 训练集与测试集 训练集与测试集的分割可以使用cross_validation中的train_test_s 阅读全文
posted @ 2019-01-18 13:25 zhangqi0828 阅读(542) 评论(0) 推荐(0)
摘要: 模型的选择 模型的选择 算法是核心,数据和计算是基础。这句话很好的说明了机器学习中算法的重要性。那么我们开看下机器学习的几种分类: 监督学习 分类 k-近邻算法、决策树、贝叶斯、逻辑回归(LR)、支持向量机(SVM) 回归 线性回归、岭回归 标注 隐马尔可夫模型(HMM) 无监督学习 聚类 k-me 阅读全文
posted @ 2019-01-18 13:23 zhangqi0828 阅读(249) 评论(0) 推荐(0)
摘要: scikit-learn数据集 scikit-learn数据集 我们将介绍sklearn中的数据集类,模块包括用于加载数据集的实用程序,包括加载和获取流行参考数据集的方法。它还具有一些人工数据生成器。 sklearn.datasets (1)datasets.load_*() 获取小规模数据集,数据 阅读全文
posted @ 2019-01-18 13:17 zhangqi0828 阅读(257) 评论(0) 推荐(0)
摘要: sklearn数据集与机器学习组成 sklearn数据集与机器学习组成 机器学习组成:模型、策略、优化 《统计机器学习》中指出:机器学习=模型+策略+算法。其实机器学习可以表示为:Learning= Representation+Evalution+Optimization。我们就可以将这样的表示和 阅读全文
posted @ 2019-01-18 13:16 zhangqi0828 阅读(294) 评论(0) 推荐(0)
摘要: 数据的特征选择 降维本质上是从一个维度空间映射到另一个维度空间,特征的多少别没有减少,当然在映射的过程中特征值也会相应的变化。举个例子,现在的特征是1000维,我们想要把它降到500维。降维的过程就是找个一个从1000维映射到500维的映射关系。原始数据中的1000个特征,每一个都对应着降维后的50 阅读全文
posted @ 2019-01-18 13:15 zhangqi0828 阅读(455) 评论(0) 推荐(0)