论文笔记 - MetaICL: Learning to Learn In Context

Motivation

  • Facebook 的 MetaICL,牛逼就对了;
  • 对 LM 针对 ICL 进行微调(而不是特定的任务);
  • 去除了自然语言的 Template,使用更直接的方式,排除了 Template 设计对 output distribution 造成的影响,让模型自己推测要进行的任务(所以感觉这种方式无法进行 Zero-Shot 了?):
    • $$former:\;This\;movie \;is \;funny, \;so \;my \;altitude \;towards \;this \;movie \;is <positive>$$
    • $$now:\;Iput: \;This \;movie\; is \;funny. \;output:\;<positive>$$
  • Noisy Channel 模式;(这里应该有个链接但是相关的文章我还没看🤣)

Analysis

  • 为了验证 Meta-training 确实很行,提出了三种实验设置:
    • $HR\rightarrow LR$ 训练集很大,验证集很小;
    • $X\rightarrow X$ 训练任务和测试任务一样;
    • $Non-X\rightarrow X$ 训练任务和测试任务不一样(这个表现好说明泛化能力很强)。
posted @ 2022-10-17 20:51  MetaZ  阅读(139)  评论(0)    收藏  举报