01 2019 档案

摘要:#include using namespace std; double HAR_AVG(double, double); void TEST(bool); int main() { double x, y; cout > x; TEST(cin.fail()); cin >> y; TEST(cin.fail()); while (x*y ... 阅读全文
posted @ 2019-01-23 10:49 深夜十二点三十三 阅读(1048) 评论(0) 推荐(0)
摘要:周志华著《西瓜书》思维导图 第一章:https://blog.csdn.net/liuyan20062010/article/details/68489427 第二章:https://blog.csdn.net/liuyan20062010/article/details/70054668 第三章: 阅读全文
posted @ 2019-01-18 22:03 深夜十二点三十三 阅读(1935) 评论(0) 推荐(0)
摘要:概述 针对某种数据,通过一定的特征提取手段,或者记录观测到的特征,往往得到的是一组特征,但其中可能存在很多特征与当前要解决的问题并不密切等问题。另一方面,由于特征过多,在处理中会带来计算量大、泛化能力差等问题,即所谓的“维数灾难”。 特征选择便是从给定的特征集合中选出相关特征子集的过程。特征选择也可 阅读全文
posted @ 2019-01-18 21:39 深夜十二点三十三 阅读(2243) 评论(0) 推荐(0)
摘要:稀疏表示与字典学习 当样本数据是一个稀疏矩阵时,对学习任务来说会有不少的好处,例如很多问题变得线性可分,储存更为高效等。这便是稀疏表示与字典学习的基本出发点。 稀疏矩阵即矩阵的每一行/列中都包含了大量的零元素,且这些零元素没有出现在同一行/列,对于一个给定的稠密矩阵,若我们能通过某种方法找到其合适的 阅读全文
posted @ 2019-01-17 11:47 深夜十二点三十三 阅读(5352) 评论(0) 推荐(0)
摘要:概述 强化学习(Reinforcement Learning,简称RL)是机器学习的一个重要分支。在强化学习中,包含两种基本的元素:状态与动作,在某个状态下执行某种动作,这便是一种策略,学习器要做的就是通过不断地探索学习,从而获得一个好的策略。例如:在围棋中,一种落棋的局面就是一种状态,若能知道每种 阅读全文
posted @ 2019-01-17 11:39 深夜十二点三十三 阅读(11110) 评论(0) 推荐(0)
摘要:基本概念 规则学习概念:机器学习中的规则(rule)通常是指语义明确、能描述数据分布所隐含的客观规律或领域概念、可写成"若…则…"形式的逻辑规则。规则学习(rulelearning)是从训练数据中学习出一组能用于对未见示例进行判别的规则。 形式化定义规则 左侧称为规则头 右侧称为规则体 L为规则的长 阅读全文
posted @ 2019-01-16 20:04 深夜十二点三十三 阅读(4154) 评论(0) 推荐(0)
摘要:指针的概念 指针是一个特殊的变量,它里面存储的数值被解释成为内存里的一个地址。要搞清一个指针需要搞清指针的四方面的内容:指针的类型,指针所指向的类型,指针的值或者叫指针所指向的内存区,还有指针本身所占据的内存区。让我们分别说明。 先声明几个指针放着做例子: 例一: 指针的类型 从语法的角度看,你只要 阅读全文
posted @ 2019-01-16 16:01 深夜十二点三十三 阅读(261) 评论(0) 推荐(0)
摘要:概述 监督学习指的是训练样本包含标记信息的学习任务,例如:常见的分类与回归算法; 无监督学习则是训练样本不包含标记信息的学习任务,例如:聚类算法。 在实际生活中,常常会出现一部分样本有标记和较多样本无标记的情形,例如:做网页推荐时需要让用户标记出感兴趣的网页,但是少有用户愿意花时间来提供标记。若直接 阅读全文
posted @ 2019-01-16 12:07 深夜十二点三十三 阅读(3417) 评论(0) 推荐(0)
摘要:1、定义 这里所说的偏差-方差分解就是一种解释模型泛化性能的一种工具。它是对模型的期望泛化错误率进行拆解。 样本可能出现噪声,使得收集到的数据样本中的有的类别与实际真实类别不相符。对测试样本 x,另 yd 为 x 在数据集中的标记,y 为真实标记,f(x;D) 为训练集D上学得模型 f 在 x 上的 阅读全文
posted @ 2019-01-15 22:20 深夜十二点三十三 阅读(912) 评论(0) 推荐(0)
摘要:概述 在高维情形下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临的严重障碍,被称为维数灾难。 缓解维数灾难的一个重要途径是降维,亦称为维数约简,即通过某种数学变换将原始高维属性空间转变为一个低维子空间。在这个子空间中样本密度大幅提高,距离计算也更为容易。 低维嵌入 人们观测或者收 阅读全文
posted @ 2019-01-11 16:23 深夜十二点三十三 阅读(1263) 评论(0) 推荐(0)
摘要:概述 在'无监督学习'(unsupervised learning)中, 训练样本的标记信息是未知的, 目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律, 为进一步的数据分析提供基础。 “聚类”(clustering)算法是“无监督学习”算法中研究最多、应用最广的算法,它试图将数据集中的样 阅读全文
posted @ 2019-01-10 17:33 深夜十二点三十三 阅读(1628) 评论(0) 推荐(0)
摘要:#include #include using namespace std; int main() { char in_put; do { cout > in_put; if (islower(in_put)) cout using namespace std; const int MAX = 10; ... 阅读全文
posted @ 2019-01-10 17:26 深夜十二点三十三 阅读(565) 评论(0) 推荐(0)
摘要:概述 集成学习通过将多个学习器进行结合,常可获得比单一学习器显著优越的泛化性能,对“弱学习器” 尤为明显。弱学习器常指泛化性能略优于随机猜测的学习器。 对于每个弱学习器而言,个体学习不能太坏,并且要有“多样性”,即学习器间具有差异。即集成个体应“好而不同”。 假设基分类器的错误率相互独立,则由Hoe 阅读全文
posted @ 2019-01-08 22:51 深夜十二点三十三 阅读(845) 评论(0) 推荐(0)
摘要:#include using namespace std; int main() { int num_1,num_2,sum=0; cout > num_1; cin >> num_2; if (num_1 > num_2) { int a; a = num_1; num_1 = num_2; ... 阅读全文
posted @ 2019-01-08 21:16 深夜十二点三十三 阅读(616) 评论(0) 推荐(0)
摘要:#include #include using namespace std; int main() { string first_name; string last_name; char grade; int age; cout > grade; cout > age; cout #include int main(... 阅读全文
posted @ 2019-01-06 21:13 深夜十二点三十三 阅读(476) 评论(0) 推荐(0)
摘要:#include using namespace std; int main() { const int unit=12; int shen_gao; cout > shen_gao; cout using namespace std; const int F_1 = 12; const double F_2 = 0.0254; const double ... 阅读全文
posted @ 2019-01-06 21:00 深夜十二点三十三 阅读(324) 评论(0) 推荐(0)
摘要:#include using namespace std; int main() { cout using namespace std; int main() { int a; cout > a; cout void print_1(void); void print_2(void); using namespace std; int main()... 阅读全文
posted @ 2019-01-06 20:54 深夜十二点三十三 阅读(278) 评论(0) 推荐(0)
该文被密码保护。
posted @ 2019-01-05 20:47 深夜十二点三十三 阅读(10) 评论(0) 推荐(0)
摘要:类别不平衡问题指分类任务中不同类别的训练样本数目差别很大的情况。一般来说,不平衡样本会导致训练模型侧重样本数目较多的类别,而“轻视”样本数目较少类别,这样模型在测试数据上的泛化能力就会受到影响。一个例子,训练集中有99个正例样本,1个负例样本。在不考虑样本不平衡的很多情况下,学习算法会使分类器放弃负 阅读全文
posted @ 2019-01-05 09:19 深夜十二点三十三 阅读(5931) 评论(0) 推荐(0)
摘要:从二分类到多分类,实际采用的是拆解法思想:将多分类问题拆分成许多二分类问题,为每一个二分类问题训练一个分类器。测试时,对这些分类器的结果进行集成,得到最终预测结果。 根据拆分策略不同,分为以下三类: 一对一(One vs. One, OvO) 训练:将N个类别两两配对,产生N(N−1)/2个二分类任 阅读全文
posted @ 2019-01-05 00:28 深夜十二点三十三 阅读(2100) 评论(3) 推荐(0)