2011年11月24日

摘要: 计算机科学的论文最大特点在于: 极度重视会议,而期刊则通常只用来做re-publication,也就是说很多期刊文章是会议论文的扩展版,而不是首发的工作。并且期刊的录用到发表中间的等待时间极长,有的甚至需要等上1-2年,因此即使投稿时是最新的工作,等发表的时候也不一定是最新了!也正因为如此,很多计算机期刊的影响因子都低的惊人,很多顶级刊物也只有1到2的印象因子! 因此,要讨论计算机科学的publication,那么请忽视影响因子。 阅读全文
posted @ 2011-11-24 21:52 Bin的专栏 阅读(5498) 评论(0) 推荐(0)
摘要: 坐标图上有各种数字和文字,因为图的大小关系,经常会需要去调节字体的大小,这里简单列举一下,以后想到了再补充~ 阅读全文
posted @ 2011-11-24 21:47 Bin的专栏 阅读(3813) 评论(0) 推荐(0)
摘要: matlab绘图的时候只用plot函数出来的图不一定符合自己最想要的格式, 经常要对坐标的数字、范围、间隔做处理。 虽然不是什么很难的操作,但是确实常用,也容易忘记,所以就放在这里说明一下: 阅读全文
posted @ 2011-11-24 21:44 Bin的专栏 阅读(62933) 评论(0) 推荐(0)
摘要: 通俗的讲,Precision 就是检索出来的条目中(比如网页)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了。 下面这张图介绍True Positive,False Negative等常见的概念,P和R也往往和它们联系起来。 阅读全文
posted @ 2011-11-24 21:22 Bin的专栏 阅读(2834) 评论(0) 推荐(0)
摘要: Linear Discriminant Analysis (也有叫做Fisher Linear Discriminant)是一种有监督的(supervised)线性降维算法。与PCA保持数据信息不同,LDA是为了使得降维后的数据点尽可能地容易被区分! 假设原始数据表示为X,(m*n矩阵,m是维度,n是sample的数量) 既然是线性的,那么就是希望找到映射向量a, 使得 a‘X后的数据点能够保持以下两种性质: 1、同类的数据点尽可能的接近(within class) 2、不同类的数据点尽可能的分开(between class) 来看一个例子:两堆点会这样被降维 阅读全文
posted @ 2011-11-24 21:05 Bin的专栏 阅读(15492) 评论(3) 推荐(1)
摘要: 机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数 f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。 y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。 Principal Component Analysis(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。 阅读全文
posted @ 2011-11-24 20:41 Bin的专栏 阅读(34356) 评论(3) 推荐(4)

导航