摘要: 散列 基础定义 1、 散列:由数据项的值来确定数据存放的位置。散列表中的存储位置被成为槽。 2、散列函数:实现从数据项到存储槽的转换的函数称为散列函数。 3、 槽号:散列函数返回的数据项的存储位置。 几种常用的散列函数: 求余散列: 方法: 将数据项除以散列表的大小,得到的余数作 为槽号。 实际上“ 阅读全文
posted @ 2020-09-20 10:06 Litra 阅读(489) 评论(0) 推荐(0)
摘要: 计算机组成原理 指令系统: 内容主要包括:机器指令、操作数类型和操作类型、寻址方式。 指令的格式: 操作数+地址码+寻址方式 指令的字长:固定字长/可变字长。 机器指令: 一、指令的一般格式: 操作码字段+ 地址码字段 操作码 反映机器做什么操作 (1) 长度固定 (2) 长度可变: 用于指令字长较 阅读全文
posted @ 2020-09-20 10:04 Litra 阅读(582) 评论(0) 推荐(0)
摘要: Bagging与随机森林算法原理总结 在集成学习原理小结中,我们学习到了两个流派,一个是Boosting,它的特点是各个弱学习器之间存在依赖和关系,另一个是Bagging,它的特点是各个弱学习器之间没有依赖关系,可以并行拟合,本文就对集成学习中的Bagging和随机森林做一个总结。 随机森林是集成学 阅读全文
posted @ 2020-08-22 16:02 Litra 阅读(1486) 评论(0) 推荐(0)
摘要: 前言 在Adaboost算法原理小结中,我们对adaboost的原理做了简单介绍,本文对Boosting家族另外一个重要的算法梯度提升树(Gradient Boosting Decision Tree,以下简称GBDT)做总结。 1.GBDT概述 GBDT也是集成学习Boosting家族的一员,但是 阅读全文
posted @ 2020-08-21 21:15 Litra 阅读(236) 评论(0) 推荐(0)
摘要: 1.前情回顾 上一节有讲到集成学习个体学习器之间根据是否存在依赖关系可以分为强依赖关系,以及不存在强依赖关系。强依赖关系代表算法:boosting系列算法,在boosting系列算法中,adaboost既可以作为分类,又可以作为回归。下面对adaboost做一个总结。 复习Boosting算法流程 阅读全文
posted @ 2020-08-20 21:25 Litra 阅读(166) 评论(0) 推荐(0)
摘要: 1.集成学习概述 从下图,我们可以对集成学习的思想做一个概括,对于训练集数据,我们可以训练若干个个体学习器(弱学习器),通过一定的结合策略,最终形成一个强学习器。 也就是说,集成学习由两个主要的问题需要解决,第一是如何得到若干个个体学习器,第二种是如何选择结合策略,将这些个体学习器结合起来。 2.集 阅读全文
posted @ 2020-08-17 12:51 Litra 阅读(183) 评论(0) 推荐(0)
摘要: 从今天开始要来写博客啦,一定不能比其他人差劲,所以要开始加油啦。先写一下最近安排吧。 1.复习高数,准备考试。 2.做好社团的事情,不能最后时刻还做不好。 3.了解数学建模国赛的事情,好好准备,找好队友。 4.认真准备考试月的复习。 5.开始自律的一个月挑战! 阅读全文
posted @ 2020-06-02 09:57 Litra 阅读(47) 评论(0) 推荐(0)