04 2022 档案
摘要:论文地址:https://arxiv.org/pdf/2107.00440.pdf 代码地址:https://github.com/kandorm/CLINE 0.摘要 尽管经过预训练的语言模型已被证明对学习高质量的语义表示非常有用,但这些模型仍然容易受到简单扰动的影响。近年来,为了提高预训练模型的
阅读全文
摘要:论文地址:https://arxiv.org/abs/2202.12499 代码地址:https://github.com/GaryYufei/PromDA 0.摘要 本文主要研究低资源自然语言理解(NLU)任务的数据扩充。我们提出了基于Prompt的数据增强模型(PromDA),该模型仅在冻结的预
阅读全文
摘要:论文地址:https://arxiv.org/pdf/2108.06332.pdf 代码地址:https://github.com/zhouj8553/FlipDA 0.摘要 大多数以前的文本数据扩充方法都局限于简单的任务和弱基线。 我们探索了在硬任务(即,few-shot的自然语言理解)和强基线(
阅读全文
浙公网安备 33010602011771号