摘要: 论文地址:https://arxiv.org/pdf/2107.00440.pdf 代码地址:https://github.com/kandorm/CLINE 0.摘要 尽管经过预训练的语言模型已被证明对学习高质量的语义表示非常有用,但这些模型仍然容易受到简单扰动的影响。近年来,为了提高预训练模型的 阅读全文
posted @ 2022-04-14 15:34 wpwpwpyo 阅读(502) 评论(0) 推荐(0)
摘要: 论文地址:https://arxiv.org/abs/2202.12499 代码地址:https://github.com/GaryYufei/PromDA 0.摘要 本文主要研究低资源自然语言理解(NLU)任务的数据扩充。我们提出了基于Prompt的数据增强模型(PromDA),该模型仅在冻结的预 阅读全文
posted @ 2022-04-13 20:08 wpwpwpyo 阅读(633) 评论(0) 推荐(0)
摘要: 论文地址:https://arxiv.org/pdf/2108.06332.pdf 代码地址:https://github.com/zhouj8553/FlipDA 0.摘要 大多数以前的文本数据扩充方法都局限于简单的任务和弱基线。 我们探索了在硬任务(即,few-shot的自然语言理解)和强基线( 阅读全文
posted @ 2022-04-10 18:48 wpwpwpyo 阅读(811) 评论(0) 推荐(0)
摘要: 0.摘要 最近虚假新闻的激增引发了一系列反应,最显著的是出现了几个人工事实核查举措(fact-checking)。因此,随着时间的推移,大量经事实核实的声明不断累积,这增加了社交媒体上的新声明或政客的新声明可能已经被某个值得信赖的事实核查组织进行事实核查的可能性,因为病毒性声明往往在社交媒体上传播一 阅读全文
posted @ 2022-03-31 16:36 wpwpwpyo 阅读(375) 评论(0) 推荐(0)