会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Tswaf
首页
新随笔
联系
订阅
管理
上一页
1
2
2015年3月23日
SVM之核函数
摘要: SVM之问题形式化 SVM之对偶问题>>>SVM之核函数 SVM之解决线性不可分 写在SVM之前——凸优化与对偶问题上一篇SVM之对偶问题中讨论到,SVM最终形式化为以下优化问题\[\begin{align}\left\{ \begin{matrix}\underset{\alph...
阅读全文
posted @ 2015-03-23 17:46 Tswaf
阅读(4058)
评论(0)
推荐(0)
2015年3月22日
SVM之对偶问题
摘要: SVM之问题形式化 >>>SVM之对偶问题 SVM之核函数 SVM之解决线性不可分 写在SVM之前——凸优化与对偶问题前一篇SVM之问题形式化中将最大间隔分类器形式化为以下优化问题: \[\begin{align}\left\{ \begin{matrix} \underse...
阅读全文
posted @ 2015-03-22 11:14 Tswaf
阅读(6387)
评论(0)
推荐(0)
2015年3月21日
SVM之问题形式化
摘要: >>>SVM之问题形式化 SVM之对偶问题 SVM之核函数 SVM之解决线性不可分 写在SVM之前——凸优化与对偶问题SVM内容繁多,打算用五篇文章来记述。SVM之问题形式化描述给出SVM的问题描述与基本模型;SVM之对偶问题将SVM求解转换为对偶问题的求解;SVM之核函数描述了SV...
阅读全文
posted @ 2015-03-21 09:07 Tswaf
阅读(2571)
评论(0)
推荐(1)
2015年3月19日
写在SVM之前——凸优化与对偶问题
摘要: SVM之问题形式化 SVM之对偶问题 SVM之核函数 SVM之解决线性不可分>>>写在SVM之前——凸优化与对偶问题本篇是写在SVM之前的关于优化问题的一点知识,在SVM中会用到。考虑到SVM之复杂,将其中优化方面基础知识提出,单作此篇。所以,本文也不会涉及优化问题的许多深层问题,...
阅读全文
posted @ 2015-03-19 11:23 Tswaf
阅读(19138)
评论(3)
推荐(6)
2015年2月6日
朴素贝叶斯分类器
摘要: 朴素贝叶斯分类器是用来做分类的一个简便方法。在贝叶斯公式的基础上,引人条件独立的假设,使得贝叶斯分类器具有简单易行的优点和假设时常与实际不符的缺点。下面简单介绍一下朴素贝叶斯分类器。首先规定一下数据格式:输入的每一个样本为${{x}^{i}},{{c}^{i}}$,其中:$i$为样本编号,$x$为样...
阅读全文
posted @ 2015-02-06 21:22 Tswaf
阅读(780)
评论(0)
推荐(0)
2015年1月29日
广义线性模型(GLM)
摘要: 一、广义线性模型概念在讨论广义线性模型之前,先回顾一下基本线性模型,也就是线性回归。在线性回归模型中的假设中,有两点需要提出:(1)假设因变量服从高斯分布:$Y={{\theta }^{T}}x+\xi $,其中误差项$\xi \sim N(0,{{\sigma }^{2}})$,那么因变量$Y\s...
阅读全文
posted @ 2015-01-29 12:24 Tswaf
阅读(32417)
评论(0)
推荐(3)
2015年1月25日
逻辑回归
摘要: 一、逻辑回归的认识逻辑回归是一个用来解决二分类的简便方法。先来看看逻辑回归解决二分类的基本思想。之前写了线性回归,现在写逻辑回归~都叫回归,有什么不同呢?首先,从机器学习的角度说一下。机器学习中,有两个问题是比较相似的,即预测和分类。通常将模型的输出是有限的离散值的问题称为分类问题,而将模型的输出是...
阅读全文
posted @ 2015-01-25 20:27 Tswaf
阅读(4243)
评论(3)
推荐(2)
2015年1月23日
线性回归
摘要: 一、问题描述线性回归问题非常简单。对于给定的m个样本$\left\{ \left( {{x}^{\left( 1 \right)}},{{y}^{\left( 1 \right)}} \right),\left( {{x}^{\left( 2 \right)}},{{y}^{\left( 2 \ri...
阅读全文
posted @ 2015-01-23 18:06 Tswaf
阅读(2135)
评论(0)
推荐(0)
上一页
1
2