2013年3月27日

(转)Nim游戏

摘要: Nim游戏的概述:还记得这个游戏吗? 给出n列珍珠,两人轮流取珍珠,每次在某一列中取至少1颗珍珠,但不能在两列中取。最后拿光珍珠的人输。 后来,在一份资料上看到,这种游戏称为“拈(Nim)”。据说,它源自中国,经由被贩卖到美洲的奴工们外传。辛苦的工人们,在工作闲暇之余,用石头玩游戏以排遣寂寞。后来流传到高级人士,则用便士(Pennies),在酒吧柜台上玩。 最有名的玩法,是把十二枚便士放成3、4、5三列,拿光铜板的人赢。后来,大家发现,先取的人只要在3那列里取走2枚,变成了1、4、5,就能稳操胜券了,游戏也就变得无趣了。于是大家就增加列数,增加铜板的数量,这样就让人们有了毫无规律的感觉,不易于 阅读全文

posted @ 2013-03-27 16:47 liangzh123 阅读(310) 评论(0) 推荐(0)

2013年3月5日

奇异值分解SVD--简单理论

摘要: 一,线性变换我们用简单的(2 x 2)矩阵说明,对一线性变换M:M是对角矩阵,点(x,y)通过线性变换后转化为:上述变换过程几何上可呈现为:可以看出平面水平方向拉伸为原来的三倍,竖直方向未变。对于另一线性变换M:M是对称矩阵,点(x,y)通过线性变换后转化为:上面这个转换直观上并不容易能看出来,我们可以旋转45度:可以看出当旋转坐标后,对应坐标沿某一方向拉伸了三倍。事实上,对于任意的一个对称矩阵M(非奇异的),线性变换都能像上面一样,先旋转坐标,然后沿某个方向拉伸或收缩坐标。对一对称矩阵M, 我们求其特征向量和特征值:Mvi = λivi ,从几何学的角度看,vi乘以M, 就相当于对vi作λi 阅读全文

posted @ 2013-03-05 20:38 liangzh123 阅读(1359) 评论(0) 推荐(0)

Linux常用命令

摘要: 下面是格式说明,你现在可以跳过,直到遇到疑问时再来查询。$ 命令行提示符粗体表示命令斜体表示参数filename, file1, file2都是文件名。有时文件名有后缀,比如file.zipcommand命令名dir文件夹名string字符串username用户名groupname组名regex正则表达式path路径device设备名partition分区名IPIP地址domain域名ID远程用户IDhost主机名,可以为IP地址或者域名var变量名value变量值命令帮助$mancommand查询命令command的说明文档 $man-kkeyword 查询关键字$infocommand更加 阅读全文

posted @ 2013-03-05 20:32 liangzh123 阅读(233) 评论(0) 推荐(0)

2012年12月13日

主成分分析PCA--理论基础

摘要: 整个PCA过程貌似及其简单,就是求协方差的特征值和特征向量,然后做数据转换。但是有没有觉得很神奇,为什么求协方差的特征向量就是最理想的k维向量?其背后隐藏的意义是什么?整个PCA的意义是什么?要解释为什么协方差矩阵的特征向量就是k维理想特征,我看到的有三个理论:分别是最大方差理论、最小错误理论和坐标轴相关度理论。这里简单探讨前两种,最后一种在讨论PCA意义时简单概述。1 最大方差理论 在信号处理中认为信号具有较大的方差,噪声有较小的方差,信噪比就是信号与噪声的方差比,越大越好。如前面的图,样本在横轴上的投影方差较大,在纵轴上的投影方差较小,那么认为纵轴上的投影是由噪声引起的。因此我们认为,最好 阅读全文

posted @ 2012-12-13 19:46 liangzh123 阅读(780) 评论(0) 推荐(0)

主成分分析PCA--计算过程

摘要: 1. 问题 真实的训练数据总是存在各种各样的问题:1、 比如拿到一个汽车的样本,里面既有以“千米/每小时”度量的最大速度特征,也有“英里/小时”的最大速度特征,显然这两个特征有一个多余。2、 拿到一个数学系的本科生期末考试成绩单,里面有三列,一列是对数学的兴趣程度,一列是复习时间,还有一列是考试成绩。我们知道要学好数学,需要有浓厚的兴趣,所以第二项与第一项强相关,第三项和第二项也是强相关。那是不是可以合并第一项和第二项呢?3、 拿到一个样本,特征非常多,而样例特别少,这样用回归去直接拟合非常困难,容易过度拟合。比如北京的房价:假设房子的特征是(大小、位置、朝向、是否学区房、建造年代、是否二手、 阅读全文

posted @ 2012-12-13 19:37 liangzh123 阅读(3077) 评论(0) 推荐(0)

2012年12月11日

Sum of squares

摘要: 给定一个线性回归模型 yi = β0 + β1xi1 +…+ βpxi1 + εi 对应数据集(xi1, xi2,…, xip, yi), i=1,…,n,包含n个观察数据. β是系数,ε 是误差项 表示y的期望, 就是离差(deviation),注意不是方差(variance); 表示对yi预测的 阅读全文

posted @ 2012-12-11 19:59 liangzh123 阅读(1339) 评论(0) 推荐(0)

2012年12月9日

协方差与协方差矩阵

摘要: 协方差是统计学上表示两个随机变量之间的相关性,随机变量ξ的离差与随机变量η的离差的乘积的数学期望叫做随机变量ξ与η的协方差(也叫相关矩),记作cov(ξ, η):cov(ξ, η)= E[(ξ-Eξ)(η-Eη)] = E(ξη)-EξEη对于离散随机变量,我们有:对于连续随机变量,我们有:随机变量的协方差用来描述随机变量之间的相关性,如果ξ与η独立,则cov(ξ, η)=0. 如果ξ与η相同,则cov(ξ, η)就是变量ξ的方差.协方差矩阵是一个矩阵,其每个元素是各个矢量元素之间的协方差。这是从标量随机变量到高维度随机矢量的自然推广.假设是以个标量随机变量组成的列矢量,并且是其第i个元素的期 阅读全文

posted @ 2012-12-09 16:12 liangzh123 阅读(6631) 评论(1) 推荐(0)

2012年11月7日

情感分析简述

摘要: 情感分析,我研究了也有半年有余了,号称看遍ACL上关于情感分析的论文,但是到目前还没有什么成就的。以下是我为一位同学毕业设计写的情感分析方面的综述,引用的论文基本上是ACL和COLING还有EMNLP上历年关于情感分析的论文,本文应该学术性比较强一点,本文虽不打算发表,但由于将来可能还有用,以及关于学术上的原因,请大家如果要引用请务必标明出处(http://blog.sina.com.cn/s/blog_48f3f8b10100irhl.html)。概述情感分析自从2002年由Bo Pang提出之后,获得了很大程度的研究的,特别是在在线评论的情感倾向性分析上获得了很大的发展,目前基于在线评论文 阅读全文

posted @ 2012-11-07 16:28 liangzh123 阅读(1277) 评论(0) 推荐(0)

2012年10月25日

SVM(2)--Linear Nonseparable

摘要: 左边的是线性可分的(Separable),margin = 2M = 2/||w||,右边的是线性不可分(Nonseparable),其中标有 ξ 的点是在它们边界的另一边(未正确区分的点),离边界 ξ∗j = Mξj 。所有正确可分的点有 ξ∗j = 0. 因此 ∑ ξ∗j 就是所有未正确区分点偏离距离,我们在最大化margin时要限制 ∑ ξ∗j ≤ constant C.我们用soft margin(a decision boundary that is tolerable to small training errors),这个margin需要权衡margin的大小和允许错误区分点的个 阅读全文

posted @ 2012-10-25 21:23 liangzh123 阅读(294) 评论(0) 推荐(0)

SVM(1)--Linear separable

摘要: Our training data consists of m tuples (x(1), y(1)), (x(2), y(2)), . . . , (x(m), y(m)), where x(i) = (x(i1), x(i2), …,x(id))T and y(i) ∈ {−1, 1},denote the class label. The hyperplane(decision boundary) of a linear classifier can be written in the following form: wTx + b = 0, where w and b are para 阅读全文

posted @ 2012-10-25 15:03 liangzh123 阅读(362) 评论(0) 推荐(0)

导航