摘要:
Motivation 现有的方法是在训练前阶段或微调阶段利用文本的语法,使这两个阶段之间存在差异。 Existing methods utilize syntax of text either in the pre-training stage or in the fine-tuning stage 阅读全文
摘要:
原文链接 motivation 本文研究发现,BERT等预训练模型经常会关注文本的语义特征进行推理,而不是去学习句子表达的逻辑。 COPA COPA任务关注于寻找给定前提(premise)的情况下的因(causal)或果(effect),如下面的例子。 Premise: The man broke 阅读全文
摘要:
Motivation 在命名体识别领域,由于选择偏差的存在,模型对于训练和测试分布不一样的数据表现很差,这背后的原因就是模型学习了数据中表现出的虚假因果关系。在这篇文章中,我们从因果角度主要研究NER问题中的虚假关联。我们将这个问题拆解成两部分:实体和上下文。考虑句子“John lives in N 阅读全文