04 2020 档案
摘要:人物介绍: 汪浩:城北中学初中二年级19班的学生,14岁,男。19班是全市有名的重点班,而汪浩正是19班里的班长,不但成绩优异,又是年年获得市三好学生。汪浩的妈妈是他们班的班主任,汪浩的妈妈总说,汪浩是她最大的骄傲。 夏辰:城南中学初中一年级2班的学生,13岁,男。2班是普通班,夏辰在班里排名中等,
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1567/ 作者 : Richárd Csáky, Patrik Purgai, Gábor Recski 机构 : Budapest University of Technology and Economics,
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1566/ 作者 : Xuewei Wang, Weiyan Shi, Richard Kim, Yoojung Oh, Sijia Yang, Jingwen Zhang, Zhou Yu 机构 : 浙江大学,U
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1565/ 作者 : Jianheng Tang, Tiancheng Zhao, Chenyan Xiong, Xiaodan Liang, Eric Xing, Zhiting Hu 机构 : 中山大学,CMU
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1564/ 作者: Hung Le, Doyen Sahoo, Nancy Chen, Steven Hoi 机构 :Singapore Management University, Institute of In
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1563/ 作者 : Jie Cao, Michael Tanana, Zac Imel, Eric Poitras, David Atkins, Vivek Srikumar 机构 : 犹他大学,华盛顿大学 研究
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1483/ 作者 :Bhuwan Dhingra, Manaal Faruqui, Ankur Parikh, Ming-Wei Chang, Dipanjan Das, William Cohen 机构 : CM
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1482/ 作者 :Chen Wu, Xuancheng Ren, Fuli Luo, Xu Sun 机构 : 清华、北大 研究的问题: 关注的是文本的风格迁移问题。目前主流的方法还是用类似于翻译中的端到端方法,但
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1481/ 作者 :Vishwajeet Kumar, Nitish Joshi, Arijit Mukherjee, Ganesh Ramakrishnan, Preethi Jyothi 机构 : IITB-M
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1480/ 作者 : Yifan Gao, Piji Li, Irwin King, Michael R. Lyu 机构 :香港中文大学,腾讯AI lab 研究的问题: 关注的是会话问题生成。如下图所示,从一片文章
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1479/ 作者 : Wei Li, Jingjing Xu, Yancheng He, ShengLi Yan, Yunfang Wu, Xu Sun 机构 : 北大,腾讯PCG 研究的问题: 关注的是对于新闻自
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1413/ 作者 :I-Ta Lee, Dan Goldwasser 机构 : Purdue University 研究的问题: 关注的是脚本知识的建模问题。脚本,它是结构化的知识表示,用于捕获给定场景下事件与参与
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1412/ 作者 :Nanjiang Jiang, Marie-Catherine de Marneffe 机构 : The Ohio State University 研究的问题: 讨论的是推断说话人承诺Infe
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1411 作者 : Linh The Nguyen, Linh Van Ngo, Khoat Than, Thien Huu Nguyen 机构 : Hanoi University of Science and
阅读全文
摘要:论文地址 : https://www.aclweb.org/anthology/P19-1410 作者 : Xiang Lin, Shafiq Joty, Prathyusha Jwalapuram, M Saiful Bari 机构 : Nanyang Technological Universi
阅读全文
摘要:论文地址 :https://arxiv.org/abs/1906.01753 作者 :Shany Barhom, Vered Shwartz, Alon Eirew, Michael Bugert, Nils Reimers, Ido Dagan 机构 : Bar-Ilan University,
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1408/ 作者 :Nafise Sadat Moosavi1, Leo Born, Massimo Poesio, Michael Strube 机构 : Technische Universitat Darms
阅读全文
摘要:论文地址:https://arxiv.org/abs/1906.01738 作者 : David Jurgens, Eshwar Chandrasekharan, Libby Hemphill 机构 : University of Michigan, Georgia Tech 研究的问题: 本文首先
阅读全文
摘要:论文地址: https://hal.inria.fr/hal-02131630/document 作者 : Ganesh Jawahar, Benoît Sagot, Djamé Seddah 机构 : Inria 研究的问题: 探究BERT的深层次表征学习的论文,也就是通过实验研究BERT的可解释
阅读全文
摘要:论文地址 :https://arxiv.org/abs/1906.02243v1 作者 : Emma Strubell, Ananya Ganesh, Andrew McCallum 机构 : University of Massachusetts Amherst 研究的问题: 一篇很绿色的文章。作
阅读全文
摘要:论文地址 :https://arxiv.org/abs/1906.00592 作者 :Baosong Yang, Longyue Wang, Derek F. Wong, Lidia S. Chao, Zhaopeng Tu 机构 : 腾讯AI lab 研究的问题: 在RNN类网络中,使用的是序列建
阅读全文
摘要:论文地址 :https://www.aclweb.org/anthology/P19-1353/ 作者 :Matthew Sims, Jong Ho Park, David Bamman 机构 :伯克利 研究的问题: 制作了一个文学事件数据集,也就是发生在小说里的事件。通过100本书选取了7849个
阅读全文
摘要:论文地址 : https://www.aclweb.org/anthology/P19-1352/ 作者 :Xuebo Liu, Derek F. Wong, Yang Liu, Lidia S. Chao, Tong Xiao, Jingbo Zhu 机构 :澳门大学,清华大学,东北大学 研究的问
阅读全文
摘要:论文地址:https://arxiv.org/abs/1901.02860 作者 :Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov 机构: CMU,Google 研究的问题
阅读全文
摘要:论文地址:https://arxiv.org/abs/1905.08160 作者 : Joost Bastings, Wilker Aziz, Ivan Titov 机构:University of Amsterdam 研究的问题: 同样是关注神经网络可解释性的一篇论文,主要是分类任务中的可解释性。
阅读全文
摘要:论文地址 :https://arxiv.org/abs/1905.06401v1 作者 :Grzegorz Chrupała, Afra Alishahi 机构:Tilburg University 已有研究工作: 在神经网络的分析中,最常用的方法是诊断模型(diagnostic models)。具
阅读全文
摘要:论文地址:https://arxiv.org/abs/1906.03731v1 作者 : Sofia Serrano, Noah A. Smith 机构 :华盛顿大学 研究的问题: 在句子分类任务中讨论attention的作用,主要是通过中间表示擦除的方法来验证注意力机制的作用,即通过mask注意力
阅读全文
摘要:论文地址:https://www.aclweb.org/anthology/P19-1281/ 作者:Henry Moss, Andrew Moore, David Leslie, Paul Rayson 机构:Lancaster University 研究的问题: 关注模型选择的问题,也就是在尽可
阅读全文
摘要:论文地址 : https://www.aclweb.org/anthology/P19-1189/ 已有研究工作: TDS,training data selection,可以用来解决监督模型中的数据跨域、分布不匹配的问题,可以去除噪声和不相干的样本。一般的方法是将整个数据集在某种度量标准下进行评分
阅读全文
摘要:论文地址 : https://arxiv.org/abs/1907.09671?context=cs.LG 研究的问题: 神经网络复杂强大的表达能力是以牺牲了数据效率为代价的,本文要做的就是以半监督的方式预先学习抽象的知识,将神经网络的表达能力和逻辑形式的数据效率结合起来。 如上图所示,模型经过两个
阅读全文
摘要:论文地址:https://arxiv.org/abs/1906.01250?context=cs.LG 已有的研究工作: 在实体链接上,已有的工作大多基于维基百科和启发式方法,它需要大量特地为任务注释的文档集合。并且这样的模型只适用于特定领域,在其他领域应用效果较差。 本文的工作和创新点: 本文主要
阅读全文
摘要:论文地址:https://arxiv.org/abs/1906.02897?context=cs.CL 研究的问题: 关注的是半监督的多域学习的问题,具体地说,由于文本的来源是各种各样的,它们的形式并不一致,域标签也并不总是可用的。同时,有一些跨域的内容,比如“新闻”下面包括政治、体育、旅游等。要准
阅读全文
摘要:论文地址:https://arxiv.org/abs/1906.05226?context=cs 已有研究工作: 本文主要参考了google那篇经典的ENAS模型,ENAS通过树结构的搜索空间或者Q-learning,基于权重共享策略进行架构搜索。 本文的工作和创新点:、 在ENAS的基础上,提出了
阅读全文
摘要:论文地址:https://www.aclweb.org/anthology/P19-1105/ 研究的问题: 关注的是结合语义的文本分类问题,以往的研究,比如用word2vec的方法,是将单词映射到一个隐空间中。但是word2vec对于一个单词,它的表示是固定的,所以无法解决一词多义的问题。 解决的
阅读全文
摘要:论文地址:https://www.aclweb.org/anthology/Q19-1013/ 研究的问题: 主要关注的是有附加信息的文本分类问题,比如使用用户/产品信息进行情感分类,实现自定义化的文本分类任务。比如可以提供用户信息来定制分类器,也可以向分类器提供特定于文本的类别列表来预测分类。框架
阅读全文
摘要:论文地址:https://www.aclweb.org/anthology/Q19-1011/ 已有研究工作: 之前的研究工作没有将文本分割和文档分类在整个文档级别上联合进行过;在数据集方面,缺少主题漂移情况的数据。 本文的工作和创新点: 1、提出了一个端到端的模型SECTOR,它可以将文档分割为连
阅读全文
摘要:论文地址:https://www.aclweb.org/anthology/P19-1104/ 已有研究工作: 修改一篇文章的作者风格尚未有很可靠的方法,基于规则的方法不够灵活,也没有针对特定作者足够的规则集,基于单语机器翻译缺乏足够数据集,循环使用多语翻译的方法已经被证明是无效的,同时,这些方法缺
阅读全文
摘要:论文地址:https://www.aclweb.org/anthology/P19-1103/ 已有研究工作: 在文本的对抗样本领域,因为有词嵌入的存在,很难将特征空间的扰动向量映射到词汇表中的有效单词。因此在CV领域的方法不能直接用于NLP领域,一般的方法是在词级别或者字符级别直接修改原始样本,来
阅读全文
摘要:基本原理: Encoder-decoder框架为文本处理领域的一种非常流行的框架,这项技术突破了传统的输入大小固定的问题,将深度神经网络模型用到了自然语言处理的相关任务之中。其不仅可以用在对话生成任务中,同样应用在自然语言处理的其他领域,如机器翻译、文本摘要、句法分析等任务中。 Seq2seq模型最
阅读全文
摘要:论文地址: https://arxiv.org/abs/1906.06298 研究的问题: 已有研究工作: 神经网络训练的主流方法是在大型数据集上最小化任务损失,但是它需要大量的训练集,比如训练一个翻译模型需要大量对应的句子对,对于有注释的数据就很难使用。比如下面这个例子。 以往的研究是需要通过改变
阅读全文
摘要:论文地址:https://arxiv.org/abs/1902.01541 已有的研究工作: 本文关注的是文献的实体解析问题,当前的state-of-art是mention-pair模型,但是该方法在计算和标记数据方面的成本都比较高。 本文的工作和创新点: 本文提出了一种以增量方式处理文本、动态解析
阅读全文
摘要:论文地址:https://arxiv.org/abs/1905.07799?context=cs.LG 研究的问题: 相对于LSTM来说,Transformer几乎在所有的NLP任务上都能胜出。但是有一点,Transformer的时间复杂度是O(n^2)的,因为对于每一步,它都需要计算该步与之前的所
阅读全文
摘要:论文地址: https://arxiv.org/abs/1907.03748 已有研究工作: 已有的研究工作主要关注完全监督情况下的问题,如有对应文本的机器翻译,在弱监督领域研究较少,往往使用结构化的预测目标。 本文的创新点: 本文主要研究的是从弱反馈中提取输出结构监控信号的方法。也就是对于不依赖于
阅读全文
摘要:论文地址:https://www.aclweb.org/anthology/P19-1030/ 已有的研究工作: 最近有众多的模型关注对于句子的通用编码建模,从而将其用在任何监督任务中。针对单词序列,完全基于Attention的模型存在两个主要的问题:1、随着句子长度的增长,其对内存的消耗会呈2次方
阅读全文
摘要:论文地址:https://arxiv.org/abs/1907.05190?context=stat.ML 已有研究工作: 在主动强化学习框架中,已经解决了将查询成本纳入强化学习的问题。对于主动强化学习,它的核心问题是量化reward信息的长期价值,但通常假定每一轮的每个动作的cost都是固定的;当
阅读全文