摘要: 6.1间隔与支持向量 给定训练样本集 ,基于此训练样本集D在样本空间找到一个划分超平面,将不同类别的样本分开。 在样本空间中,划分超平面可通过下列线性方程描述: (1) 其中,为法向量, 决定了超平面的方向;b为位移项,决定了超平面与原点之间的距离。 将超平面记为,样本空间任意点到超平面的距离可写为 阅读全文
posted @ 2017-03-14 23:28 eclipSycn 阅读(664) 评论(0) 推荐(0)
摘要: http://blog.csdn.net/ice110956/article/details/20288239?utm_source=tuicool&utm_medium=referral 阅读全文
posted @ 2017-03-13 18:47 eclipSycn 阅读(138) 评论(0) 推荐(0)
摘要: 斯坦福公开课2 Logistic回归 分类器最大似然估计不太懂,看了下面的博客,总结下来 求使发生训练样本(Xi,Yi)的概率最大的时候的θ参数的最大似然估计,求出该θ,代表此时发生训练样本的概率最大,最佳值。 http://blog.sina.com.cn/s/blog_5ecfd9d90100l 阅读全文
posted @ 2017-03-09 17:41 eclipSycn 阅读(262) 评论(0) 推荐(0)
摘要: [径向基神经网络训练算法及其性能研究 2.1]-RBF定义:假设x,x0属于Rn,以x0为中心,x到x0的径向距离为半径形成的||x-x0||构成的函数系φ(||x-x0||)称为径向基函数。 阅读全文
posted @ 2017-02-11 19:18 eclipSycn 阅读(549) 评论(0) 推荐(0)
摘要: 网络的输出神经元之间相互竞争,同一时刻只有一个神经元获胜。 二、学习规则 竞争神经网络的学习规则是由内星规则发展而来的Kohonen学习规则。 4.SOM学习算法 阅读全文
posted @ 2016-11-29 17:57 eclipSycn 阅读(950) 评论(0) 推荐(0)
摘要: 结构简单、收敛速度款、能够逼近任意非线性函数的网络-径向基函数(Radial Basis Function,RBF)网络。 1988年Broomhead和Love根据生物神经元具有局部响应的原理,将径向基函数引入神经网络中。 径向基函数三层构成的前向网络:输入层,隐含层,输出层。 本章还会介绍概率神 阅读全文
posted @ 2016-11-24 18:12 eclipSycn 阅读(2671) 评论(0) 推荐(0)
摘要: 左手按住换档键(Alt键)不放,右手依次按41420(不要按键盘上方的,要按右边的),松开双手,根号(√)就出来了。 同样: 按178是平方号(²) 按179是立方号(³) 215是乘号(×) 247是除号(÷) 176是度(°) 阅读全文
posted @ 2016-11-24 15:58 eclipSycn 阅读(200) 评论(0) 推荐(0)
摘要: 1.设计函数 solvein 设计线性网络; solverb 设计径向基网络; solverbe 设计精确的径向基网络; solvehop 设计Hopfield网络。 2.传递函数 hardlim 硬限幅传递函数; hardlims 对称硬限幅传递函数; purelin 线性传递函数; tansig 阅读全文
posted @ 2016-11-18 12:01 eclipSycn 阅读(2885) 评论(0) 推荐(0)
摘要: BP神经网络是包含多个隐含层的网络,具备处理线性不可分问题的能力。 20世纪80年代中期,Rumelhart,McClelland等成立了Parallel Distributed Procession(PDP)小组,提出了著名的误差反向传播算法(Error Back Propagtion,BP)。 阅读全文
posted @ 2016-11-15 21:18 eclipSycn 阅读(2270) 评论(0) 推荐(0)
摘要: 自适应线性元件20世纪50年代末由Widrow和Hoff提出,主要用于线性逼近一个函数式而进行模式联想以及信号滤波、预测、模型识别和控制等。 线性神经网络和感知器的区别是,感知器只能输出两种可能的值,而线性神经网络的输出可以取任意值。线性神经网络采用Widrow-Hoff学习规则,即LMS(Leas 阅读全文
posted @ 2016-11-15 14:29 eclipSycn 阅读(3032) 评论(0) 推荐(0)