摘要:1、with:用于指定临时命名的结果 2、select A from B 在B中查看A 3、into 插入语句 例如:select A、B into 表1 from 表2 4、where 指定搜索条件 (1)逻辑运算符(and、not、or) (2)比较运算符(常规) (3)like:匹配关键词 %
阅读全文
摘要:思路:通过改变训练样本权重,学习多个分类器,并将这些分类器进行线性组合,提高分类器性能。大多数提升方法都是改变训练数据的概率分布(数据的权值) 强可学习:存在一个多项式的学习算法能够学习他,并且正确率很高 弱可学习:存在一个多项式学习算法学习,正确率比随机猜测要好一些 具体问题: (1)在每一轮如何
阅读全文
摘要:K近邻法(k-NN)是一种分类与回归的算法。 优点:简单,直观 思路:给定一个训练集,对新输入的实例,在训练数据集中找到与该实例最邻近的K个实例。采用“少数服从多数”的方法,寻找实例所在的类。 K近邻算法:(没有显式的学习过程) input:训练集 T={(xi,yi) |i=1..n}, 实例x。
阅读全文
摘要:适用场景:存在为未测变量的情况下,对模型参数进行估计。 EM算法: input:观测数据Y,为观测数据Z,联合分布P(Y,Z|θ),条件分布P(Z|Y,θ) output:模型参数θ 步骤: (1)选择参数的初值进行迭代 (2)E步:求期望 (3)M步:最大化当前θ (4)重复(2)(3)知道算法收
阅读全文
摘要:1、调用聚合函数 sum:返回所有值的和/非重复数据的和 avg:平均数且忽略空值 min:最小值 max:最大值 count:计数函数 distinct:去不重复记录 2、数学函数 abs:绝对值 power:乘方 。例如:power(2,2):2的2次方 rand:随机浮点数,随机取0-1之间的
阅读全文
摘要:公式实在不好敲呀,我拍了我笔记上的公式部分。原谅自己小学生的字体(太丑了)。 聚类属于无监督学习方法,典型的无监督学习方法还有密度估计和异常检测。 聚类任务:将数据集中的样本划分为若干个不相交的子集,每个子集为一个类。 性能指标(有效性指标):类内相似度高,类间相似度低。 性能度量: (1)外部指标
阅读全文
摘要:1、while循环(1~20的和) 2、while_break_continue(1~20偶数和) 3、if选择象限 4、return:在查询中无条件退出,return后面的语句将不会被执行。 5、goto:跳转,将程序跳到标识符指定的行再继续执行 6、wait for:挂起 (1)指定触发器,存储
阅读全文
摘要:贝叶斯决决策论 在所有相关概率都理想的情况下,贝叶斯决策论考虑基于这些概率和误判损失来选择最优标记,基本思想如下: (1)已知先验概率和类条件概率密度(似然) (2)利用贝叶斯转化为后验概率 (3)根据后验概率的大小进行决策分类 1、风险最小化 风险:根据后验概率可以获得将样本分为某类所产生的期望损
阅读全文