随笔分类 -  AI.自然语言处理

摘要:转载自 依存句法分析的任务以及形式化定义 依存句法分析的任务以及形式化定义 1、依存句法分析的形式化定义 在依存句法中,共同的基本假设是:句法结构本质上包含词和词对之间的关系。这种关系就是依存关系(dependency relations)。其中一个依存关系连接两个词,一个是核心词(head)一个是 阅读全文
posted @ 2019-10-20 14:57 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 Attentive Sequence to Sequence Networks Attentive Sequence to Sequence Networks 1、Encoder-Decoder 框架 首先我们模型的整体框图如下: Encoder-Decoder 框架可以这么直观地去理解:可 阅读全文
posted @ 2018-10-22 19:37 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 seq2seq中的beam search算法过程 首先说明在sequence2sequence模型中,beam search的方法只用在测试的情况,因为在训练过程中,每一个decoder的输出是有正确答案的,也就不需要beam search去加大输出的准确率。 假设现在我们用机器翻译作为例子 阅读全文
posted @ 2018-10-22 19:35 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 哈工大刘挺教授:自然语言处理的十个发展趋势 近日,由中国人工智能学会、阿里巴巴集团 & 蚂蚁金服主办,CSDN、中国科学院自动化研究所承办的第三届中国人工智能大会(CCAI 2017)在杭州国际会议中心盛大开幕。 本次大会的第一场分论坛讨论是关于语言智能领域的八大问题。讨论期间,哈尔滨工业大 阅读全文
posted @ 2018-10-22 19:33 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 通俗理解维特比算法 本文假定读者有一定的隐马模型基础!或者大家可以参考这两篇文章。 隐马尔科夫模型-基本模型与三个基本问题和隐马尔科夫模型-前向算法 维特比算法说白了就是动态规划实现最短路径,只要知道“动态规划可以降低复杂度”这一点就能轻松理解维特比算法 维特比算法之所以重要,是因为凡是使用 阅读全文
posted @ 2018-10-22 19:32 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 一个非常好的依存句法可视化工具 一个非常好的依存句法可视化工具 在依存句法研究中,常见的CONLL格式的句法树库,一眼看上去就不是太明白整棵树的结构。 这里分享推荐一个南京大学nlp实验室制作的一个依存句法可视化工具,效果如图: 当我们的CONLL格式数据如下: 它对应的树结构如下: 这么简 阅读全文
posted @ 2018-10-21 11:57 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 机器学习中向量化编程总结记录 向量化编程总结记录 很多时候,我们在实现算法的时候,总会碰到累和的伪代码: 比如下面这个: 为了简单我这里只重复5次,但是原理是一样的。 很显然我们要得到这个结果,非常简单,比如下面的这段python代码: 那么我们有没有更好的办法呢?有的,看到X,Y都是向量, 阅读全文
posted @ 2018-10-21 11:56 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 句法分析(syntactic parsing)在NLP领域的应用是怎样的 句法分析(syntactic parsing)在NLP领域的应用是怎样的? 文章整理自郭江师兄问题回答(被收录于知乎编辑推荐)!已取得师兄授权!@jiangfeng 原问题如下: opinion extraction 阅读全文
posted @ 2018-10-21 11:54 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 通俗理解决策树算法中信息增益的 通俗理解决策树算法中的信息增益 在决策树算法的学习过程中,信息增益是特征选择的一个重要指标,它定义为一个特征能够为分类系统带来多少信息,带来的信息越多,说明该特征越重要,相应的信息增益也就越大。 1、概念 我们前面说了,信息熵是代表随机变量的复杂度(不确定度) 阅读全文
posted @ 2018-10-21 11:53 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 通俗理解条件熵 通俗理解条件熵 前面我们总结了信息熵的概念通俗理解信息熵,这次我们来理解一下条件熵。 1、信息熵以及引出条件熵 我们首先知道信息熵是考虑该随机变量的所有可能取值,即所有可能发生事件所带来的信息量的期望。公式如下: 我们的条件熵的定义是:定义为X给定条件下,Y的条件概率分布的熵 阅读全文
posted @ 2018-10-21 11:53 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)
摘要:转载自 通俗理解信息熵 通俗理解信息熵 前段时间德川和我讲解了决策树的相关知识,里面德川说了一下熵,今天整理了一下,记录下来希望对大家理解有帮助~ 1、信息熵的公式 先抛出信息熵公式如下: 其中代表随机事件X为的概率,下面来逐步介绍信息熵的公式来源! 2、信息量 信息量是对信息的度量,就跟时间的度量 阅读全文
posted @ 2018-10-21 11:52 茅坤宝骏氹 阅读(0) 评论(0) 推荐(0)