02 2015 档案

摘要:支持向量机(SVM)是当前非常流行的监督学习方法,其核心主要有两个:1. 构造一个**极大边距分离器**——与样例点具有最大可能距离的决策边界;2. 将在原输入空间中线性不可分的样例映射到高维空间中,从而进行线性分离。并且使用**核技巧**来避免高维度空间的运算所带来的巨大时间复杂度。#极大边距分离... 阅读全文
posted @ 2015-02-28 16:28 bgmind 阅读(1347) 评论(0) 推荐(0)
摘要:Adaboost是一种组合学习的提升算法,能将多个弱学习算法(甚至只比随机猜测好一点)组合起来,构成一个足够强大的学习模型。#组合学习组合学习是将多个假说组合起来,并集成它们的预测。比如对于一个问题,我们可以生成20棵决策树,让它们对新样例的分类进行预测,最后通过投票决定最终的预测。这样可以有效的降... 阅读全文
posted @ 2015-02-26 17:12 bgmind 阅读(1055) 评论(0) 推荐(1)
摘要:人工神经网络由一系列神经元组成:![](http://images.cnitblog.com/blog/667949/201502/251731183773137.png)每个神经元都代表了一个特定的线性函数:![](http://images.cnitblog.com/blog/667949/20... 阅读全文
posted @ 2015-02-25 17:34 bgmind 阅读(1968) 评论(3) 推荐(2)
摘要:![](http://images.cnitblog.com/blog/667949/201502/241731277216702.jpg)决策树是一个函数,以属性值向量作为输入,返回一个“决策”。如上图,我们输入一系列属性值(天气状况,湿度,有无风)后会得到一个要不要出去玩的一个决策。#从样例构建... 阅读全文
posted @ 2015-02-24 17:32 bgmind 阅读(2608) 评论(0) 推荐(1)
摘要:在局部搜索算法中,我们不再关心从初始节点到目标节点之间的路径,而是考虑从当前节点出发,移动到它的邻近状态,直到到达合理的目标状态。相比于前面所说的无信息搜索算法和有信息搜索算法,局部搜索算法往往能以常数的空间复杂度(不用保存路径)在很大甚至无限的状态空间中找到合理解。#爬山法爬山法不断向值增加的... 阅读全文
posted @ 2015-02-23 17:33 bgmind 阅读(4361) 评论(0) 推荐(0)