Collaborative Evolution: Multi-Round Learning Between Large and Small Language Models for Emergent Fake News Detection

论文《Collaborative Evolution》Introduction & Related Work 部分总结

📌 Introduction 部分概括

1. 背景与问题重要性

  • 假新闻在社交媒体上的传播对社会造成了严重影响
  • 传统基于小语言模型(SLMs)的方法依赖大量标注数据进行监督训练,难以适应新兴新闻事件的快速演变

2. 现有方法的局限性

  • SLMs

    • 在特定数据集上表现良好,但无法泛化到新兴事件
    • 存在分布偏移问题,即训练数据与新兴事件的数据分布不一致
  • 大语言模型(LLMs)

    • 虽具备强大的零样本学习能力,但在假新闻检测中表现不佳
    • 原因包括:
      • 缺乏相关示例(demonstrations)
      • 缺乏动态更新的外部知识

3. 现有LLM+SLM方法的不足

  • 现有方法(如DELL、ARG)仅将LLM作为SLM的辅助工具,未充分利用LLM的推理与泛化能力
  • 仍然依赖大量标注数据训练SLM,未能解决数据稀缺问题

4. 本文解决方案:MRCD框架

  • 提出 Multi-Round Collaboration Detection(MRCD) 框架,实现LLM与SLM的多轮协作学习

  • 核心组件:

    • 两阶段检索模块:获取相关示例和最新知识
    • 数据选择模块:筛选高置信度样本
    • 多轮学习机制:逐步优化模型性能
  • 优势

    • 不依赖标注数据
    • 充分利用LLM的泛化能力和SLM的专业性
    • 在两个真实数据集(Pheme、Twitter16)上取得SOTA结果

1. 假新闻检测方法分类

  • 基于内容的方法:从新闻语义中提取特征(如Khattar et al., 2019)
  • 基于知识增强的方法:利用外部知识库(如Wikidata)辅助判断(如Hu et al., 2021)
  • 基于传播路径的方法:分析新闻在社交网络中的传播模式(如Shu et al., 2020)

2. LLM在假新闻检测中的应用

  • 现有方法(如DELL、ARG)使用LLM生成评论、情感分析或提供推理依据,辅助SLM检测
  • 局限性
    • 仍依赖大量标注数据
    • 未充分利用LLM的任务推理与学习能力

3. 上下文学习(In-Context Learning)

  • LLM通过少量示例即可适应新任务
  • 关键点:示例的语义相关性比标签的准确性更重要(Liu et al., 2022; Min et al., 2022)
  • 本文创新:从搜索引擎和新闻语料中检索未标注新闻,并赋予语义丰富的伪标签,避免"复制效应"

4. 检索增强的LLMs

  • 通过检索外部知识解决LLM的"幻觉"和"知识过时"问题
  • 应用于问答、对话、常识推理等任务
  • 本文采用两阶段检索
    • 第一阶段:检索最新新闻作为示例
    • 第二阶段:从Wikipedia检索相关知识

✅ 总结

  • Introduction 突出了假新闻检测在新兴事件上面临的数据稀缺分布偏移问题,并指出现有LLM与SLM方法的不足
  • Related Work 系统梳理了假新闻检测的三大主流方法、LLM的应用现状,以及上下文学习与检索增强技术的研究进展,为MRCD框架的设计提供了理论基础和方法借鉴
posted @ 2025-10-07 11:43  Gabriel_7  阅读(14)  评论(0)    收藏  举报