摘要: 说明:d.keys() 以及列表可以看做lambda函数的实参,max的判断对象是key的值。最终返回的是使得key的值最大的那个实参。 阅读全文
posted @ 2018-07-26 15:18 猴子吃果冻 阅读(2022) 评论(0) 推荐(0) 编辑
摘要: 1、从几何的角度去理解PCA降维 以平面坐标系为例,点的坐标是怎么来的? 图1 图2 如上图1所示,向量OA的坐标表示为(3,2),A点的横坐标实为向量OA与单位向量(1,0)的内积得到的(也就是向量OA在单位向量(1,0)所表示的的方向上的投影的长度,正负由向量OA与投影方向的夹角决定),纵坐标同 阅读全文
posted @ 2018-07-17 17:08 猴子吃果冻 阅读(6199) 评论(0) 推荐(0) 编辑
摘要: 1.提升算法 提升算法实为将一系列单一算法(如决策树,SVM等)单一算法组合在一起使得模型的准确率更高。这里先介绍两种Bagging(代表算法随机森林),Boosting(代表算法AdaBoost-即本篇核心) Bagging思想:以随机森林为例 假设样本集的总样本量为100个,每个样本有10个特征 阅读全文
posted @ 2018-07-06 12:05 猴子吃果冻 阅读(863) 评论(0) 推荐(0) 编辑
摘要: 聚类与分类的区别在于,是在没有给定划分类别的情况下,更具数据相似度进行样本分组的一种办法,是一种非监督的学习算法,聚类的输入时一组未被标记的样本,聚类更具数据自身的距离或者相似度将其划分为若干组,划分的原则是组内距离最小化,而组间(外部)距离最大化。 聚类中的k-means算法 1. k-means 阅读全文
posted @ 2018-06-30 10:12 猴子吃果冻 阅读(578) 评论(0) 推荐(0) 编辑
摘要: 1.极大似然估计 原理:假设在一个罐子中放着许多白球和黑球,并假定已经知道两种球的数目之比为1:3但是不知道那种颜色的球多。如果用放回抽样方法从罐中取5个球,观察结果为:黑、白、黑、黑、黑,估计取到黑球的概率为p; 假设p=1/4,则出现题目描述观察结果的概率为:(1/4)4 *(3/4) = 3/ 阅读全文
posted @ 2018-06-26 20:57 猴子吃果冻 阅读(4401) 评论(2) 推荐(0) 编辑
摘要: 上一篇中我对学习过程中的装饰器进行了总结和整理,这一节简单整理下类装饰器 1.类中的__call__方法: 我们在定义好一个类后,实例化出一个对象,如果对这个对象以直接在后边加括号的方式进行调用,程序就会报错。也就是在类中这种做法是错误的; 而,如果一个类中写入了__call__方法,当我问在对实例 阅读全文
posted @ 2018-06-12 17:49 猴子吃果冻 阅读(1920) 评论(0) 推荐(0) 编辑
摘要: 1.预备知识: 如下图所示:我们可以将函数名理解为变量名,将函数理解为一个具体的变量,定义函数时,函数名与函数的关系理解为一种赋值的关系,即就是把这个函数赋值给了对应的函数名;而在内存中一个变量只能表示或者说指向一块内容 2.原理代码示例: 通过下图1-5步来解释上述函数的调用过程,并引出装饰器 3 阅读全文
posted @ 2018-06-12 16:47 猴子吃果冻 阅读(253) 评论(0) 推荐(0) 编辑
摘要: 1.动态的创建实例方法 理解:如下图 2.动态的创建类方法&静态方法 阅读全文
posted @ 2018-06-12 14:20 猴子吃果冻 阅读(536) 评论(0) 推荐(0) 编辑
摘要: 1.决策树的作用 主要用于解决分类问题的一种算法 2.建立决策树的3中常用算法 1).ID3 》信息增益 2).c4.5--> 信息增益率 4).CART Gini系数 3.提出问题: ID3算法中,选择根节点时为什么要使得信息增益最大的特征呢? ************************** 阅读全文
posted @ 2018-06-10 15:51 猴子吃果冻 阅读(909) 评论(0) 推荐(0) 编辑
摘要: 1.目标分析: 我们想要获取的数据为如下图: 1).每本书的名称 2).每本书的价格 3).每本书的简介 2.网页分析: 网站url:http://e.dangdang.com/list-WY1-dd_sale-0-1.html 如下图所示,每当我们将滚动条滚动到页面底部是,会自动加载数据,并且ur 阅读全文
posted @ 2018-06-07 19:27 猴子吃果冻 阅读(402) 评论(0) 推荐(0) 编辑