随笔分类 -  paper reading

摘要:论文地址 :https://www.aclweb.org/anthology/P19-1353/ 作者 :Matthew Sims, Jong Ho Park, David Bamman 机构 :伯克利 研究的问题: 制作了一个文学事件数据集,也就是发生在小说里的事件。通过100本书选取了7849个 阅读全文
posted @ 2020-04-21 22:44 bernieloveslife 阅读(321) 评论(0) 推荐(0)
摘要:论文地址 : https://www.aclweb.org/anthology/P19-1352/ 作者 :Xuebo Liu, Derek F. Wong, Yang Liu, Lidia S. Chao, Tong Xiao, Jingbo Zhu 机构 :澳门大学,清华大学,东北大学 研究的问 阅读全文
posted @ 2020-04-21 22:40 bernieloveslife 阅读(410) 评论(0) 推荐(0)
摘要:论文地址:https://arxiv.org/abs/1901.02860 作者 :Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov 机构: CMU,Google 研究的问题 阅读全文
posted @ 2020-04-21 22:37 bernieloveslife 阅读(421) 评论(0) 推荐(0)
摘要:论文地址:https://arxiv.org/abs/1905.08160 作者 : Joost Bastings, Wilker Aziz, Ivan Titov 机构:University of Amsterdam 研究的问题: 同样是关注神经网络可解释性的一篇论文,主要是分类任务中的可解释性。 阅读全文
posted @ 2020-04-21 22:33 bernieloveslife 阅读(576) 评论(0) 推荐(0)
摘要:论文地址 :https://arxiv.org/abs/1905.06401v1 作者 :Grzegorz Chrupała, Afra Alishahi 机构:Tilburg University 已有研究工作: 在神经网络的分析中,最常用的方法是诊断模型(diagnostic models)。具 阅读全文
posted @ 2020-04-21 22:28 bernieloveslife 阅读(221) 评论(0) 推荐(0)
摘要:论文地址:https://arxiv.org/abs/1906.03731v1 作者 : Sofia Serrano, Noah A. Smith 机构 :华盛顿大学 研究的问题: 在句子分类任务中讨论attention的作用,主要是通过中间表示擦除的方法来验证注意力机制的作用,即通过mask注意力 阅读全文
posted @ 2020-04-21 22:26 bernieloveslife 阅读(892) 评论(0) 推荐(0)
摘要:论文地址:https://www.aclweb.org/anthology/P19-1281/ 作者:Henry Moss, Andrew Moore, David Leslie, Paul Rayson 机构:Lancaster University 研究的问题: 关注模型选择的问题,也就是在尽可 阅读全文
posted @ 2020-04-21 22:23 bernieloveslife 阅读(442) 评论(0) 推荐(0)
摘要:论文地址 : https://www.aclweb.org/anthology/P19-1189/ 已有研究工作: TDS,training data selection,可以用来解决监督模型中的数据跨域、分布不匹配的问题,可以去除噪声和不相干的样本。一般的方法是将整个数据集在某种度量标准下进行评分 阅读全文
posted @ 2020-04-21 00:28 bernieloveslife 阅读(735) 评论(0) 推荐(0)
摘要:论文地址 : https://arxiv.org/abs/1907.09671?context=cs.LG 研究的问题: 神经网络复杂强大的表达能力是以牺牲了数据效率为代价的,本文要做的就是以半监督的方式预先学习抽象的知识,将神经网络的表达能力和逻辑形式的数据效率结合起来。 如上图所示,模型经过两个 阅读全文
posted @ 2020-04-21 00:24 bernieloveslife 阅读(182) 评论(0) 推荐(0)
摘要:论文地址:https://arxiv.org/abs/1906.01250?context=cs.LG 已有的研究工作: 在实体链接上,已有的工作大多基于维基百科和启发式方法,它需要大量特地为任务注释的文档集合。并且这样的模型只适用于特定领域,在其他领域应用效果较差。 本文的工作和创新点: 本文主要 阅读全文
posted @ 2020-04-21 00:20 bernieloveslife 阅读(465) 评论(0) 推荐(0)
摘要:论文地址:https://arxiv.org/abs/1906.02897?context=cs.CL 研究的问题: 关注的是半监督的多域学习的问题,具体地说,由于文本的来源是各种各样的,它们的形式并不一致,域标签也并不总是可用的。同时,有一些跨域的内容,比如“新闻”下面包括政治、体育、旅游等。要准 阅读全文
posted @ 2020-04-21 00:14 bernieloveslife 阅读(234) 评论(0) 推荐(0)
摘要:论文地址:https://arxiv.org/abs/1906.05226?context=cs 已有研究工作: 本文主要参考了google那篇经典的ENAS模型,ENAS通过树结构的搜索空间或者Q-learning,基于权重共享策略进行架构搜索。 本文的工作和创新点:、 在ENAS的基础上,提出了 阅读全文
posted @ 2020-04-21 00:09 bernieloveslife 阅读(415) 评论(0) 推荐(0)
摘要:论文地址:https://www.aclweb.org/anthology/P19-1105/ 研究的问题: 关注的是结合语义的文本分类问题,以往的研究,比如用word2vec的方法,是将单词映射到一个隐空间中。但是word2vec对于一个单词,它的表示是固定的,所以无法解决一词多义的问题。 解决的 阅读全文
posted @ 2020-04-21 00:03 bernieloveslife 阅读(248) 评论(0) 推荐(0)
摘要:论文地址:https://www.aclweb.org/anthology/Q19-1013/ 研究的问题: 主要关注的是有附加信息的文本分类问题,比如使用用户/产品信息进行情感分类,实现自定义化的文本分类任务。比如可以提供用户信息来定制分类器,也可以向分类器提供特定于文本的类别列表来预测分类。框架 阅读全文
posted @ 2020-04-21 00:00 bernieloveslife 阅读(236) 评论(0) 推荐(0)
摘要:论文地址:https://www.aclweb.org/anthology/Q19-1011/ 已有研究工作: 之前的研究工作没有将文本分割和文档分类在整个文档级别上联合进行过;在数据集方面,缺少主题漂移情况的数据。 本文的工作和创新点: 1、提出了一个端到端的模型SECTOR,它可以将文档分割为连 阅读全文
posted @ 2020-04-20 23:56 bernieloveslife 阅读(451) 评论(0) 推荐(0)
摘要:论文地址:https://www.aclweb.org/anthology/P19-1104/ 已有研究工作: 修改一篇文章的作者风格尚未有很可靠的方法,基于规则的方法不够灵活,也没有针对特定作者足够的规则集,基于单语机器翻译缺乏足够数据集,循环使用多语翻译的方法已经被证明是无效的,同时,这些方法缺 阅读全文
posted @ 2020-04-20 23:53 bernieloveslife 阅读(240) 评论(0) 推荐(0)
摘要:论文地址:https://www.aclweb.org/anthology/P19-1103/ 已有研究工作: 在文本的对抗样本领域,因为有词嵌入的存在,很难将特征空间的扰动向量映射到词汇表中的有效单词。因此在CV领域的方法不能直接用于NLP领域,一般的方法是在词级别或者字符级别直接修改原始样本,来 阅读全文
posted @ 2020-04-20 23:50 bernieloveslife 阅读(1237) 评论(0) 推荐(0)
摘要:基本原理: Encoder-decoder框架为文本处理领域的一种非常流行的框架,这项技术突破了传统的输入大小固定的问题,将深度神经网络模型用到了自然语言处理的相关任务之中。其不仅可以用在对话生成任务中,同样应用在自然语言处理的其他领域,如机器翻译、文本摘要、句法分析等任务中。 Seq2seq模型最 阅读全文
posted @ 2020-04-19 23:25 bernieloveslife 阅读(1453) 评论(0) 推荐(0)
摘要:论文地址: https://arxiv.org/abs/1906.06298 研究的问题: 已有研究工作: 神经网络训练的主流方法是在大型数据集上最小化任务损失,但是它需要大量的训练集,比如训练一个翻译模型需要大量对应的句子对,对于有注释的数据就很难使用。比如下面这个例子。 以往的研究是需要通过改变 阅读全文
posted @ 2020-04-19 23:19 bernieloveslife 阅读(526) 评论(0) 推荐(0)
摘要:论文地址:https://arxiv.org/abs/1902.01541 已有的研究工作: 本文关注的是文献的实体解析问题,当前的state-of-art是mention-pair模型,但是该方法在计算和标记数据方面的成本都比较高。 本文的工作和创新点: 本文提出了一种以增量方式处理文本、动态解析 阅读全文
posted @ 2020-04-19 22:42 bernieloveslife 阅读(223) 评论(0) 推荐(0)