摘要: 发表于2009年05月14号由52nlp自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年5月14日)三、 最大熵模型详述g) GIS算法(Generative Iterative Scaling) i. 背景: 最原始的最大熵模型的训练方法是一种称为通用迭代算法GIS (generalized iterat. 阅读全文
posted @ 2013-01-07 19:05 renly2013 阅读(359) 评论(0) 推荐(0)
摘要: 发表于2009年05月9号由52nlp自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年5月9日)三、 最大熵模型详述c) 相对熵(Kullback-Liebler距离)(Relative Entropy (Kullback-Liebler Distance)) i. 定义(Definition):两个概率分布 阅读全文
posted @ 2013-01-07 19:04 renly2013 阅读(245) 评论(0) 推荐(0)
摘要: 发表于2009年05月5号由52nlp自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年5月5日)二、 最大熵(Maximum Entropy):b) 最大熵模型(Maximum Entropy Modeling) iii. 约束条件(Constraint): 每个特征的观察样本期望值与特征模型期望值相一致(. 阅读全文
posted @ 2013-01-07 19:00 renly2013 阅读(287) 评论(0) 推荐(0)
摘要: 发表于2009年04月29号由52nlp自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年4月29日)一、 词性标注(POS tagging):c) 特征向量表示(Feature Vector Representation) i. 一个特征就是一个函数f(A feature is a function f ): 阅读全文
posted @ 2013-01-07 18:59 renly2013 阅读(210) 评论(0) 推荐(0)
摘要: 发表于2009年04月25号由52nlp自然语言处理:最大熵和对数线性模型Natural Language Processing: Maximum Entropy and Log-linear Models作者:Regina Barzilay(MIT,EECS Department, October 1, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年4月25日)上一讲主要内容回顾(Last time):* 基于转换的标注器(Transformation-based tagger)* 基于隐马尔科夫模型的标注器(HMM-based tagger)遗留的内容(Leftov 阅读全文
posted @ 2013-01-07 18:57 renly2013 阅读(229) 评论(0) 推荐(0)
摘要: MIT自然语言处理第四讲:标注(第四部分)发表于2009年03月26号由52nlp自然语言处理:标注Natural Language Processing: Tagging作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年3月26日)三、 马尔科夫模型(Markov Model)g) 有效标注(Efficient Tagging) i. 对于一个单词序列,如何寻找最可能的标记序列(How to find the most likely a sequence of tag 阅读全文
posted @ 2013-01-07 18:55 renly2013 阅读(181) 评论(0) 推荐(0)
摘要: MIT自然语言处理第四讲:标注(第三部分)发表于2009年03月24号由52nlp自然语言处理:标注Natural Language Processing: Tagging作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年3月24日)三、 马尔科夫模型(Markov Model)a) 直观(Intuition):对于序列中的每个单词挑选最可能的标记(Pick the most likely tag for each word of a sequence) i. 我们将对 阅读全文
posted @ 2013-01-07 18:53 renly2013 阅读(204) 评论(0) 推荐(0)
摘要: MIT自然语言处理第四讲:标注(第二部分)发表于2009年03月7号由52nlp自然语言处理:标注Natural Language Processing: Tagging作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年3月7日)学习标注(Learning to Tag) * 基于转换的学习(Transformation-based Learning) * 隐马尔科夫标注器(Hidden Markov Model Taggers) * 对数线性模型(Log-linear 阅读全文
posted @ 2013-01-07 18:52 renly2013 阅读(250) 评论(0) 推荐(0)
摘要: MIT自然语言处理第四讲:标注(第一部分)发表于2009年02月24号由52nlp自然语言处理:标注Natural Language Processing: Tagging作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年2月24日)上一讲主要内容回顾(Last time) 语言模型(Language modeling): n-gram模型(n-gram models) 语言模型评测(LM evaluation) 平滑(Smoothing): 打折(Discoun... 阅读全文
posted @ 2013-01-07 18:51 renly2013 阅读(266) 评论(0) 推荐(0)
摘要: MIT自然语言处理第三讲:概率语言模型(第六部分)发表于2009年02月16号由52nlp自然语言处理:概率语言模型Natural Language Processing: Probabilistic Language Modeling作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年2月16日)六、 插值及回退a) The Bias-Variance Trade-Off i. 未平滑的三元模型估计(Unsmoothed trigram estimate): ... 阅读全文
posted @ 2013-01-07 18:50 renly2013 阅读(284) 评论(0) 推荐(0)
摘要: MIT自然语言处理第三讲:概率语言模型(第五部分)发表于2009年02月11号由52nlp自然语言处理:概率语言模型Natural Language Processing: Probabilistic Language Modeling作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年2月10日)五、 Good-Turing打折法(Good-Turing Discounting)a) 你在将来看到一个新词的可能性有多大?用所看到的事件去估计未知事件的概率(How li 阅读全文
posted @ 2013-01-07 18:48 renly2013 阅读(496) 评论(0) 推荐(0)
摘要: MIT自然语言处理第三讲:概率语言模型(第四部分)发表于2009年01月20号由52nlp自然语言处理:概率语言模型Natural Language Processing: Probabilistic Language Modeling作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年1月20日)四、 平滑算法a) 最大似然估计(Maximum Likelihood Estimate) i. MLE使训练数据尽可能的“大”(MLE makes training dat 阅读全文
posted @ 2013-01-07 18:47 renly2013 阅读(591) 评论(0) 推荐(0)
摘要: MIT自然语言处理第三讲:概率语言模型(第三部分)发表于2009年01月18号由52nlp自然语言处理:概率语言模型Natural Language Processing: Probabilistic Language Modeling作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年1月18日)三、 语言模型的评估a) 评估一个语言模型(Evaluating a Language Model) i. 我们有n个测试单词串(We have n test string) 阅读全文
posted @ 2013-01-07 18:46 renly2013 阅读(563) 评论(0) 推荐(0)
摘要: MIT自然语言处理第三讲:概率语言模型(第二部分)发表于2009年01月17号由52nlp自然语言处理:概率语言模型Natural Language Processing: Probabilistic Language Modeling作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年1月17日)二、语言模型构造a) 语言模型问题提出(The Language Modeling Problem) i. 始于一些词汇集合(Start with some vocabula 阅读全文
posted @ 2013-01-07 18:45 renly2013 阅读(253) 评论(0) 推荐(0)
摘要: MIT自然语言处理第三讲:概率语言模型(第一部分)发表于2009年01月16号由52nlp自然语言处理:概率语言模型Natural Language Processing: Probabilistic Language Modeling作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年1月16日)上一讲主要内容回顾(Last time) 语料库处理(Corpora processing) 齐夫定律(Zipf’s law) 数据稀疏问题(Data sparsene... 阅读全文
posted @ 2013-01-07 18:44 renly2013 阅读(222) 评论(0) 推荐(0)
摘要: MIT自然语言处理第二讲:单词计数(第四部分)发表于2009年01月11号由52nlp自然语言处理:单词计数Natural Language Processing: (Simple) Word Counting作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年1月11日)四、 分词相关a) Tokenization i. 目标(Goal):将文本切分成单词序列(divide text into a sequence of words) ii. 单词指的是一串连续的字母 阅读全文
posted @ 2013-01-07 18:43 renly2013 阅读(185) 评论(0) 推荐(0)
摘要: MIT自然语言处理第二讲:单词计数(第三部分)发表于2009年01月10号由52nlp自然语言处理:单词计数Natural Language Processing: (Simple) Word Counting作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年1月10日)三、 语料库相关a) 数据稀疏问题(Sparsity) i. “kick”在一百万单词中出现的次数(How often does “kick” occur in 1M words)?——58 ii. 阅读全文
posted @ 2013-01-07 18:42 renly2013 阅读(235) 评论(0) 推荐(0)
摘要: MIT自然语言处理第二讲:单词计数(第二部分)发表于2009年01月9号由52nlp自然语言处理:单词计数Natural Language Processing: (Simple) Word Counting作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn ,2009年1月9日)二、 齐夫定律(Zipf’s Law)a) 在任何一个自然语言里第n个最常用的单词的频率与n近似成反比(The frequency of use of the nth-most-frequently-us 阅读全文
posted @ 2013-01-07 18:40 renly2013 阅读(263) 评论(0) 推荐(0)
摘要: MIT自然语言处理第二讲:单词计数(第一部分)发表于2009年01月8号由52nlp自然语言处理:单词计数Natural Language Processing: (Simple) Word Counting作者:Regina Barzilay(MIT,EECS Department, November 15, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年1月8日)这一讲主要内容(Today):1、语料库及其性质(Corpora and its properties);2、Zipf 法则( Zipf’s Law );3、标注语料库例子(Examples of anno 阅读全文
posted @ 2013-01-07 18:35 renly2013 阅读(233) 评论(0) 推荐(0)
摘要: MIT自然语言处理第一讲:简介和概述(第三部分)发表于2009年01月5号由52nlp自然语言处理:背景和概述Natural Language Processing:Background and Overview作者:Regina Barzilay(MIT,EECS Department,September 8, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年1月5日)四、 这门课程将包含哪些内容(What will this course be about)?1、 对不同层次(句法、语义、篇章)的语言知识建立合适的计算模型和有效的表达方式(Computationall 阅读全文
posted @ 2013-01-07 18:34 renly2013 阅读(242) 评论(0) 推荐(0)
摘要: MIT自然语言处理第一讲:简介和概述(第二部分)发表于2009年01月4号由52nlp自然语言处理:背景和概述Natural Language Processing:Background and Overview作者:Regina Barzilay(MIT,EECS Department,September 8, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年1月4日)三、NLP的知识瓶颈(Knowledge Bottleneck in NLP)我们需要(We need): ——有关语言的知识(Knowledge about language); ——有关世界的知识(K 阅读全文
posted @ 2013-01-07 18:32 renly2013 阅读(246) 评论(0) 推荐(0)
摘要: MIT自然语言处理第一讲:简介和概述(第一部分)发表于2009年01月3号由52nlp自然语言处理:背景和概述Natural Language Processing:Background and Overview作者:Regina Barzilay(MIT,EECS Department,September 8, 2004)译者:我爱自然语言处理(www.52nlp.cn,2009年1月3日)这堂课将要回答的问题(Questions that today’s class will answer):1、什么是自然语言处理(What is Natural Language Processing ( 阅读全文
posted @ 2013-01-07 18:30 renly2013 阅读(313) 评论(0) 推荐(0)
摘要: MIT开放式课程“自然语言处理”介绍发表于2009年01月2号由52nlp 从订阅的Google快讯上知道这个“麻省理工学院“开放式课程网页” | 电机工程与计算机科学 | 6.881 2004秋季课程:自然语言处理 | 课堂讲稿”网站,看介绍是MIT开放课程的中文翻译计划,但是浏览这个网站时我并没有找到具体讲稿的中文翻译,只是下载到了相关的英文课件,顺势去了MIT官方课程的英文网站,也找到了这些课件。很想知道是否有相关的翻译,并萌生了一个想法:结合自己的经验来翻译和解释相关的课件,也权当一个学习和深化的过程。只是怕版权的问题,所以仔细阅读了一下MIT的“创作共享规范”,最终的结论是“如果不. 阅读全文
posted @ 2013-01-07 18:29 renly2013 阅读(468) 评论(0) 推荐(1)
摘要: 丹尼斯·洪:讲述他的七种全地形机器人 阅读全文
posted @ 2013-01-07 14:33 renly2013 阅读(160) 评论(0) 推荐(0)
摘要: 马库斯·菲舍尔如鸟儿飞翔的机器人 阅读全文
posted @ 2013-01-07 14:25 renly2013 阅读(130) 评论(0) 推荐(0)
摘要: 生活不只是生存:教你学会生活的30种方式(一)yangtingyu19902013-01-045857“人应该生活,而不仅仅是生存。”——杰克·伦敦。很多时候我们的生活就好像是开着自动挡,像是在敷衍了事一样,每天都过着和前一天同样的生活。这样的日子过得还不错、很舒坦,直到你发现这一年又什么也没做,也没有真正地享受生活。这样的日子过得还不错,直到你变老了,回首往事,却发现满是遗憾。这样的日子过得挺好,直到你看着孩子们都去上大学了,你才意识到自己错过了孩子们的童年。这样的日子其实过得并不好。如果你想真正地生活,真正地体验生活,最大程度地享受生活,而不是只为了生存在勉强度日,那么你应该想办 阅读全文
posted @ 2013-01-07 13:43 renly2013 阅读(211) 评论(0) 推荐(0)
摘要: 简介在过去几个月,源自不同渠道――从强大的微软到产品花哨的个人发明家――的消息表明,同声传译装置虽非完美,但做到基本可用已经指日可待了。电脑同声传译有望实现在1960年代开始的电视剧《星际迷航》里,不论星际飞船“进取号”在宇宙里航行到多么遥远的地方,它遇到的任何外星人都能用流利的加洲口音的英语交谈。剧中是这样解释的,Kirk(柯克)船长和他的船员们都佩带着微型万能翻译器,可以扫描外星人的脑电波,然后将他们的思维用得体的英语同步表达出来。当然,这是科幻小说来着。但最优秀的科幻小说往往能预言未来。许多人相信,正是《星际迷航》第一季中出现的弹开式通讯器启发了翻盖式手机的设计。不过也有不好的一面,许多 阅读全文
posted @ 2013-01-07 08:30 renly2013 阅读(310) 评论(0) 推荐(0)
摘要: 大数据挖掘hjgc20012013-01-06325这本书已经由剑桥大学出版社出版。如果你购买精装版,可以享受20%的折扣。经出版方同意,你可以免费下载本书。但剑桥大学出版社拥有本书的所有权,如果你希望重印本书的全部或部分章节,需要得到出版社的授权。很遗憾需要特别指出这点,因为据我们目前掌握的证据表明,有人将我们以前在网上公开的书籍更换名字后重新出版。正如本书第三章所述,这种侵权行为是很容易被人发现的。------Anand Rajaraman,Jeff Ullman。以下内容和2012年7月4日校订的公开版本是一样的。我们目前正在对该书进行修订,这本书将来会一直进行更新。当前版本可称之为V1 阅读全文
posted @ 2013-01-07 08:21 renly2013 阅读(321) 评论(0) 推荐(0)