随笔分类 - 机器学习
摘要:主成份分析(Principle Component Analysis)主要用来对数据进行降维。对于高维数据,处理起来比较麻烦,而且高维数据可能含有相关的维度,数据存在冗余,PCA通过把高维数据向低维映射的同时尽可能保留数据蕴含的信息,到达简化数据的目的。假设原始数据表示为$\{{{x}_{1}},{...
阅读全文
摘要:SVM之问题形式化 SVM之对偶问题 SVM之核函数>>>SVM之解决线性不可分 写在SVM之前——凸优化与对偶问题上一篇SVM之核函数介绍了通过计算样本核函数,实际上将样本映射到高维空间以望使其线性可分的方法,一定程度上解决了线性不可分问题,但并不彻底。现在,换个思路,对于线性不...
阅读全文
摘要:SVM之问题形式化 SVM之对偶问题>>>SVM之核函数 SVM之解决线性不可分 写在SVM之前——凸优化与对偶问题上一篇SVM之对偶问题中讨论到,SVM最终形式化为以下优化问题\[\begin{align}\left\{ \begin{matrix}\underset{\alph...
阅读全文
摘要:SVM之问题形式化 >>>SVM之对偶问题 SVM之核函数 SVM之解决线性不可分 写在SVM之前——凸优化与对偶问题前一篇SVM之问题形式化中将最大间隔分类器形式化为以下优化问题: \[\begin{align}\left\{ \begin{matrix} \underse...
阅读全文
摘要:>>>SVM之问题形式化 SVM之对偶问题 SVM之核函数 SVM之解决线性不可分 写在SVM之前——凸优化与对偶问题SVM内容繁多,打算用五篇文章来记述。SVM之问题形式化描述给出SVM的问题描述与基本模型;SVM之对偶问题将SVM求解转换为对偶问题的求解;SVM之核函数描述了SV...
阅读全文
摘要:SVM之问题形式化 SVM之对偶问题 SVM之核函数 SVM之解决线性不可分>>>写在SVM之前——凸优化与对偶问题本篇是写在SVM之前的关于优化问题的一点知识,在SVM中会用到。考虑到SVM之复杂,将其中优化方面基础知识提出,单作此篇。所以,本文也不会涉及优化问题的许多深层问题,...
阅读全文
摘要:朴素贝叶斯分类器是用来做分类的一个简便方法。在贝叶斯公式的基础上,引人条件独立的假设,使得贝叶斯分类器具有简单易行的优点和假设时常与实际不符的缺点。下面简单介绍一下朴素贝叶斯分类器。首先规定一下数据格式:输入的每一个样本为${{x}^{i}},{{c}^{i}}$,其中:$i$为样本编号,$x$为样...
阅读全文
摘要:一、广义线性模型概念在讨论广义线性模型之前,先回顾一下基本线性模型,也就是线性回归。在线性回归模型中的假设中,有两点需要提出:(1)假设因变量服从高斯分布:$Y={{\theta }^{T}}x+\xi $,其中误差项$\xi \sim N(0,{{\sigma }^{2}})$,那么因变量$Y\s...
阅读全文
摘要:一、逻辑回归的认识逻辑回归是一个用来解决二分类的简便方法。先来看看逻辑回归解决二分类的基本思想。之前写了线性回归,现在写逻辑回归~都叫回归,有什么不同呢?首先,从机器学习的角度说一下。机器学习中,有两个问题是比较相似的,即预测和分类。通常将模型的输出是有限的离散值的问题称为分类问题,而将模型的输出是...
阅读全文
摘要:一、问题描述线性回归问题非常简单。对于给定的m个样本$\left\{ \left( {{x}^{\left( 1 \right)}},{{y}^{\left( 1 \right)}} \right),\left( {{x}^{\left( 2 \right)}},{{y}^{\left( 2 \ri...
阅读全文

浙公网安备 33010602011771号