10 2020 档案

摘要:/*如果接口的实现类(或者是父类的子类),只需要使用唯一的一次那么这种情况下就可以省略掉该类的定义,而改为使用【匿名内部类】匿名内部类的定义格式:接口名称 对象名 = new 接口名称(){ //覆盖重写所有抽象方法};对格式“new 接口名称(){...}”进行解析1.new代表创建对象的动作2. 阅读全文
posted @ 2020-10-13 22:07 GoBetter 阅读(1042) 评论(0) 推荐(1)
摘要: 阅读全文
posted @ 2020-10-12 15:14 GoBetter 阅读(78) 评论(0) 推荐(0)
摘要:一旦使用static使用成员方法,这就成为了静态方法。静态方法不属于对象,属于类的如果没有Static,必须首先创建对象,然后通过对象才能使用它如果有了Static,那么不需要创建对象,直接就能通过类名称来使用它无论是成员变量,还是成员方法。如果有了Static,都推荐用类名称来调用成员变量:类名称 阅读全文
posted @ 2020-10-11 09:07 GoBetter 阅读(131) 评论(0) 推荐(0)
摘要:直接看大神写的!! https://blog.csdn.net/u012328159/article/details/89847193 后面写的内容只是为了给自己留个印象。 这篇随笔不会具体描述Adaboost算法实现过程,只是大概说明算法思想。 在bagging中,算法是并行训练多个独立的分类器来 阅读全文
posted @ 2020-10-10 15:48 GoBetter 阅读(141) 评论(0) 推荐(0)
摘要:在前一篇文章中我们说到使用不同的训练算法获得互相独立的分类器。另一种方法是在训练集的不同随机子集上训练同一种算法获得一组独立的分类器。 这种方法称为bagging(bootstrap aggregating的缩写) 顾名思义,bagging由两个内容组成:bootstrap、aggragating。 阅读全文
posted @ 2020-10-09 19:53 GoBetter 阅读(567) 评论(0) 推荐(0)
摘要:假设你已经训练了一些分类器,每一个都达到了80%的准确率。这些分类器分别是一个逻辑回归分类器,一个支持向量机分类器,一个随机森林分类器,一个k近邻分类器,也许还有其他。 有一种非常简单的方法来创建更好的分类器,这个方法就是聚合每个分类器的预测,并将获得最多投票的类作为自己的预测。这种多数投票分类器被 阅读全文
posted @ 2020-10-09 16:58 GoBetter 阅读(2021) 评论(0) 推荐(0)
摘要:在用jupyter画决策树时,用到了这样一行代码 os.environ['PATH'] += os.pathsep + 'E:\graphviz\bin' 对于os库自己本身不了解,因此借这个机会对os库的基本用法学习一遍 os模块与操作系统相关 os.system os.system("notep 阅读全文
posted @ 2020-10-08 20:53 GoBetter 阅读(972) 评论(0) 推荐(0)
摘要:在画决策树时,需要用到graphviz、pydotplus等第三方库以及软件。 具体步骤请参考大佬的介绍https://blog.csdn.net/chai_zheng/article/details/78226194 只说明一个问题,在官网下载graphviz时,我一直找不到graphviz-2. 阅读全文
posted @ 2020-10-08 16:10 GoBetter 阅读(336) 评论(0) 推荐(0)
摘要:局部变量和成员变量1.定义的位置不一样【重点】局部变量:在方法的内部成员变量:在方法的外部,直接写在类当中2.作用范围不一样【重点】局部变量:只有方法当中才可以使用,出了方法就不能再用成员变量:整个类全都可以通用3.默认值不一样【重点】局部变量:没有默认值,进行手动赋值成员变量:如果没有赋值,会有默 阅读全文
posted @ 2020-10-08 10:37 GoBetter 阅读(225) 评论(0) 推荐(0)
摘要:Logistic Regression(逻辑回归):用来预测样本属于两个类别0或者1的概率。 因为逻辑回归是Sigmoid函数,所以输出0到1之间的数字,这个值就是属于各自类别的概率。 若概率大于0.5,则认为该样本属于类别1,概率低于0.5则属于类别0 训练逻辑回归模型: 1. 铰链损失(Hing 阅读全文
posted @ 2020-10-07 14:33 GoBetter 阅读(350) 评论(0) 推荐(0)
摘要:java内存需要划分为5个部分1.栈(Stack):存放的都是方法中的局部变量。方法的运行过一定在栈中 局部变量:方法的参数,或者是方法{}内部的变量。 作用域:一旦超出作用域,立刻从栈内存消失。2.堆(Heap):凡是new出去的东西,都在堆当中。 堆内存里的东西都有一个地址值:16进制 堆内存里 阅读全文
posted @ 2020-10-07 09:23 GoBetter 阅读(261) 评论(0) 推荐(0)
摘要:梯度下降是一种通用的优化算法,其思想为迭代选择参数,使代价函数最小。 当描述梯度下降时,模型参数被随机初始化并反复调整以最小化代价函数;学习率与代价函数的斜率成正比,所以随着参数的逼近,学习率逐渐变小 学习率将决定迭代的次数与花费的时间 学习率太低导致迭代次数过多 学习率太高导致算法无法收敛 不是所 阅读全文
posted @ 2020-10-06 14:35 GoBetter 阅读(298) 评论(0) 推荐(0)