摘要: @[toc] 0. Abstract We trained a large, deep convolutional neural network to classify the 1.2 million high resolution images in the ImageNet LSVRC 2010 阅读全文
posted @ 2020-03-14 19:25 xtlhahahah 阅读(376) 评论(0) 推荐(0)
摘要: 1.提升方法AdaBoost算法AdaBoost的思想:是先得到一个弱分类器,然后在这个弱分类器的基础上将其提升到强分类器,具体方法是提升上一个分类器中被误分类的样本的权重,使得本次训练的分类器更加重视这些样本,最后的分类器是所有的分类器的线性组合。前一次没有正确分类的样本点在后一次会被更加重视,前 阅读全文
posted @ 2020-02-02 16:44 xtlhahahah 阅读(221) 评论(0) 推荐(0)
摘要: 1、前言支持向量机(support vector machines,SVM)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器。间隔最大使之有别于感知机。 2、线性可分支持向量机一般地,当训练数据集线性可分时,存在无穷个分离超平面可将两类数据正确分开。感知机利用误分类最小的策略 阅读全文
posted @ 2020-02-01 17:49 xtlhahahah 阅读(336) 评论(0) 推荐(0)
摘要: 1.逻辑斯谛回归 (logistic regression) 是统计学习中的经典分类方法。 最大熵是概率模型学习的一个准则, 将其推广到分类问题得到最大熵模型(maximum entropy model) 。逻辑斯谛回归模型与最大熵模型都属于对数线性模型。设X是连续随机变量, X服从Logistic 阅读全文
posted @ 2020-02-01 12:19 xtlhahahah 阅读(223) 评论(0) 推荐(0)
摘要: 决策树(decision tree)是一种基本的分类与回归方法。本章主要讨论用于分类的决策树。决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。 其主要优点是:模型具有可读性,分类速度快。学 阅读全文
posted @ 2020-02-01 10:18 xtlhahahah 阅读(698) 评论(0) 推荐(0)
摘要: 朴素贝叶斯(naive Bayes) 法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集, 首先基于特征条件独立假设学习输入/输出的联合概率分布; 然后基于此模型, 对给定的输入x, 利用贝叶斯定理求出后验概率最大的输出y。 朴素贝叶斯法实现简单, 学习与预测的效率都很高, 是一种 阅读全文
posted @ 2020-01-31 12:28 xtlhahahah 阅读(212) 评论(0) 推荐(0)
摘要: 1. k 近邻算法k近邻法(k-nearest neighbor, k-NN) 是一种基本分类与回归方法。 k近邻法的输入为实例的特征向量, 对应于特征空间的点; 输出为实例的类别, 可以取多类。 k近邻法假设给定一个训练数据集, 其中的实例类别已定。 分类时, 对新的实例, 根据其k个最近邻的训练 阅读全文
posted @ 2020-01-28 10:27 xtlhahahah 阅读(276) 评论(0) 推荐(0)
摘要: 1. 感知机模型 输入为实例的特征向量, 输出为实例的类别, 取+1和-1;感知机对应于输入空间中将实例划分为正负两类的分离超平面, 属于判别模型;导入基于误分类的损失函数;利用梯度下降法对损失函数进行极小化;感知机学习算法具有简单而易于实现的优点, 分为原始形式和对偶形式;1957年由Rosenb 阅读全文
posted @ 2020-01-26 11:02 xtlhahahah 阅读(165) 评论(0) 推荐(0)
摘要: 1.统计学习 统计学习的对象:(1)data : 计算机及互联网上的各种数字、文字、图像、视频、音频数据以及它们的组合。(2)数据的基本假设是同类数据具有一定的统计规律性。统计学习的目的:用于对数据(特别是未知数据) 进行预测和分析。统计学习的方法:(1)分类: 监督学习无监督学习半监督学习强化学习 阅读全文
posted @ 2020-01-25 18:07 xtlhahahah 阅读(341) 评论(0) 推荐(0)