谣言论文

  1. 《LLM-based Fact-Checking: A Pipeline for Studying Information Disorder》
  • 背景:信息失序(如虚假信息、错误信息)在社交媒体时代影响深远,人工事实核查成本高、效率低,自动化核查成为研究热点。

  • 研究对象:提出一个基于大语言模型(LLM)的事实核查流程,旨在自动化评估声明的真实性,并结合图结构分析提升性能。

  • 数据与模型:

    • 数据:使用 LIAR 数据集,包含 12,791 条政治声明,带有多值真实性标签。

    • 模型:使用 Gemma-2(9B)进行零样本事实核查,设计多值和二值分类提示。

  • 方法:

    • 构建处理流程:包括流处理(Apache Flink)、LLM 事实核查模块、图数据库(Neo4j)存储。

    • 图分析:利用声明与作者之间的关系图,提升低置信度情况下的分类效果。

  • 评估:

    • 性能:在多值分类中表现不佳(准确率 23%),二值分类中有所提升(准确率 61%)。

    • 问题:LLM 对标签语义理解不足,易受证据和主观解释影响。

    • 改进方向:通过图结构引入上下文信息(如作者信誉、相似声明)提升分类效果。


  1. 《LeDoFAN: Enhancing Lengthy Document Fake News Identification Leveraging LLMs and Explainable Window-Based Transformers with N-gram Expulsion》
  • 背景:长文档虚假新闻检测面临文本长度限制和语义噪声的挑战。

  • 研究对象:提出一种结合窗口机制和 N-gram 排除的 Transformer 模型,用于长文档虚假新闻分类。

  • 数据与模型:

    • 数据:CLEF-2022 CheckThat! 数据集,包含四类标签(FALSE, PARTIALLY FALSE, TRUE, OTHER)。

    • 模型:BERT 及其变体(RoBERTa, DistilBERT 等),TinyLlama(1.1B),Llama 2(用于摘要)。

  • 方法:

    • 窗口机制:将长文档分割为重叠的 512 词片段,使用最大投票法集成预测。

    • N-gram 排除:移除常见 unigram 和 bigram,减少噪声。

    • XAI 解释:使用 LIME 分析模型决策依据。

  • 评估:

    • 性能:最佳模型(BERT + 窗口 + unigram 排除)F1 达 0.3492,优于现有方法。

    • LLM 表现:TinyLlama 性能较差(F1=0.2098),Llama 2 摘要后略有提升。

    • 解释性:XAI 显示模型依赖关键词(如“covid”)进行分类,存在误判。


  1. 《Leveraging LLMs for COVID-19 Fake News Generation and Detection: A Comparative Analysis on Twitter Data》
  • 背景:COVID-19 期间虚假信息在 Twitter 上快速传播,LLM 既可用于检测也可生成虚假内容。

  • 研究对象:比较五种 LLM(GPT-3.5, GPT-4o, Gemini, Claude, DeepSeek)在虚假新闻生成与检测中的表现与相似性。

  • 数据与模型:

    • 数据:人类撰写推文(RUMOR, LIAR)和 LLM 生成推文(基于 COVID-19 新闻文章)。

    • 模型:五种 LLM 用于生成和检测任务。

  • 方法:

    • 生成:基于真实/虚假新闻文章生成推文。

    • 检测:评估各模型在七类数据集上的分类性能。

    • 相似性分析:使用 SBERT 和余弦相似度比较生成内容和检测决策的相似性。

  • 评估:

    • 生成相似性:GPT 系列与 DeepSeek 高度相似,Gemini 差异显著。

    • 检测性能:在 LLM 生成数据上表现较好(准确率 65%-83%),在人类数据上下降。

    • 虚假新闻检测:GPT-4o 和 Gemini 在检测虚假新闻上表现最佳。

    • 结论:LLM 易检测人类虚假新闻,但难以识别自身生成内容,存在双重风险。


  1. 《On the Role of Large Language Models in Crowdsourcing Misinformation Assessment》
  • 背景:在线虚假信息泛滥,众包和 LLM 被用于评估信息真实性,但 LLM 输出不完美。

  • 研究对象:研究 LLM 输出对众包工作者评估虚假信息的影响。

  • 数据与模型:

    • 数据:PolitiFact 数据集中 120 条政治声明,平衡党派和真实性。

    • 模型:GPT-3.5 生成真实性标签和解释。

  • 方法:

    • 实验设计:2×2 因子设计(无输出、仅标签、仅解释、标签+解释)。

    • 众包任务:通过 Prolific 招募美国本土工作者评估声明真实性并报告信心。

  • 评估:

    • 评估质量:LLM 输出导致工作者高估真实性,与 LLM 倾向一致。

    • 一致性:外部和内部一致性在各条件下无显著差异。

    • 信心水平:LLM 输出对信心影响不大,但在提供标签和解释时与外部一致性正相关。

    • 行为指标:LLM 辅助下工作者减少搜索、加快评估,但积极搜索者依赖度低。

    • 结论:LLM 对众包判断有显著影响,仅提供解释可降低过度依赖风险。

论文标题:Explainable Fact-Checking with Large Language Models: How Prompt Style Variation affects Accuracy and Faithfulness in Claim Justifications

作者:Marina Serafeimidi

发表会议/机构:Delft University of Technology, Netherlands

背景:

大型语言模型(LLM)在事实核查任务中展现出潜力,但其实际应用价值不仅取决于标签准确性,还取决于其提供的理由是否忠实于证据。现有研究多关注标签准确性,而忽视了提示风格对解释忠实度的影响。

研究对象:

研究不同提示风格对LLM生成的事实核查标签和理由的准确性(accuracy)与忠实度(faithfulness)的影响。

数据与模型:

  • 数据:使用QuanTemp(350条数值型声明)和HoVer(150条多跳推理声明)两个数据集。

  • 模型:LLaMA 3.1:8B 和 GPT-4o-mini。

  • 提示策略:包括Minimal、Few-Shot、Role-Based、Chain-of-Thought、Decompose-and-Verify、Evidence-First(Correlation)、Support-Refute、Arguments等8种策略。

  • 标签条件:无标签、真实标签、错误标签(用于评估偏见)。

方法:

  • 将每条声明-证据对输入不同提示模板,测试各策略在三种标签条件下的表现。

  • 使用G-Eval(基于LLM的评估框架)评估理由的忠实度。

评估:

  • 准确性:GPT-4o-mini整体优于LLaMA,Few-Shot和Correlation策略表现最佳。

  • 忠实度:Minimal策略在多数情况下忠实度最高,但各策略间差异较小。

  • 标签偏见:FOLK策略对错误标签的抵抗力最强,Few-Shot在准确性和忠实度间表现均衡。

  • 声明复杂度:多跳声明(HoVer)和复杂类型(如Interval)的准确性和忠实度普遍下降。

成果:

  • 提示风格对LLM事实核查的准确性和忠实度有显著影响。

  • Few-Shot策略在准确性和忠实度间取得最佳平衡,适合实际应用。

  • 提供错误标签会导致模型输出显著偏见,但FOLK策略表现出较强的抗干扰能力。

  • 研究强调了在事实核查系统中设计提示策略时需权衡准确性与解释质量,并建议避免对较小模型使用复杂的分解式提示。

  1. 《Leveraging Arabic BERT for High-Accuracy Fake News Detection》
  • 背景:阿拉伯语假新闻检测研究相对缺乏,其语言特性复杂,现有模型效果有限。

  • 研究对象:阿拉伯语假新闻检测,比较多种深度学习模型。

  • 数据与模型:

    • 数据:Arabic Fake News Dataset (AFND),共606,912条新闻。

    • 模型:LSTM、BiLSTM(使用GloVe词嵌入)、Arabic BERT。

  • 方法:

    • 文本预处理(清洗、去停用词、词干提取)。

    • 使用GloVe增强语义表示,Arabic BERT进行微调。

  • 评估:

    • Arabic BERT准确率达98%,优于LSTM(93%)和BiLSTM(94%)。

    • 词干提取对GloVe模型有负面影响,但对BERT影响较小。

  • 成果:Arabic BERT在阿拉伯语假新闻检测中表现最佳,显著优于传统序列模型。


  1. 《Leveraging LLMs for COVID-19 Fake News Generation and Detection: A Comparative Analysis on Twitter Data》
  • 背景:LLM既能生成又能检测假新闻,但其在推文数据上的表现与相似性尚未系统研究。

  • 研究对象:5种LLM(GPT-3.5、GPT-4o、Gemini、Claude、DeepSeek)在COVID-19假新闻生成与检测中的表现与相似性。

  • 数据与模型:

    • 数据:人类撰写推文(RUMOR、LIAR)和LLM生成推文(基于COVID-19新闻)。

    • 模型:五种LLM用于生成与检测。

  • 方法:

    • 生成阶段:基于新闻文章生成真假推文。

    • 检测阶段:评估各模型在7个数据集上的分类表现。

    • 相似性分析:使用SBERT和余弦相似度比较生成内容和检测决策。

  • 评估:

    • 生成相似性:GPT系列与DeepSeek高度相似,Gemini差异最大。

    • 检测性能:在LLM生成数据上表现较好(准确率65%-83%),但在人类数据上下降明显。

    • 无模型在自生成数据上表现最佳。

  • 成果:揭示了LLM在假新闻生成与检测中的行为相似性与性能局限,Gemini行为最独特。


  1. 《LLM-Generated Fake News Induces Truth Decay in News Ecosystem: A Case Study on Neural News Recommendation》
  • 背景:LLM生成的假新闻可能影响新闻推荐系统的排序,进而改变新闻生态。

  • 研究对象:LLM生成新闻对神经新闻推荐系统的影响。

  • 数据与模型:

    • 数据:基于GossipCop构建包含约75k条新闻的数据集,含人类与LLM生成新闻(L1-L3生成模式)。

    • 模型:LSTUR、NRMS(基于BERT编码)。

  • 方法:

    • 模拟LLM新闻侵入候选池、用户历史、训练数据三个阶段。

    • 评估真实新闻与假新闻在推荐排序中的相对优势(RRA)。

  • 评估:

    • 真实新闻在纯人类数据中占优。

    • 引入LLM生成新闻后,真实新闻优势下降(Truth Decay现象)。

    • 困惑度分析:LLM生成假新闻困惑度更低,更受推荐模型偏好。

  • 成果:首次揭示LLM生成假新闻导致“真相衰减”,呼吁对新闻推荐系统进行可信度增强设计。

1. 《Exploring the Thematic Coherence of Fake and LLM-generated news: A Topic Modeling Approach》

背景:虚假新闻与LLM生成新闻的泛滥对新闻可信度构成威胁,现有一致性模型多关注局部一致性,缺乏对主题一致性的可解释建模方法。

研究对象:提出一种新颖的主题一致性建模方法,用于评估新闻文章是否围绕核心主题展开。

数据与方法:

  • 数据:使用WSJ、ISOT、FakeHealth、MAGE等新闻数据集。

  • 方法:

    • 主题提取:使用BERTopic对文章进行主题建模。

    • 一致性计算:将文章分块,计算各块与全文主题分布的Jensen-Shannon散度,并使用RMSE等指标聚合得分。

    • 评估任务:提出“句子替换任务”替代传统“句子排序任务”,以更好评估主题一致性。

  • 实验:评估方法在真假新闻和LLM生成新闻上的区分能力,并生成可解释的输出。 成果:

  • 方法能有效区分主题一致与不一致文本。

  • 真实新闻比虚假新闻主题一致性更高。

  • LLM生成新闻主题一致性略低于人类撰写新闻,分类准确率约52%。

  • 提出可解释的主题一致性建模框架与评估任务。


2. 《Leveraging BERT and GPT for Enhanced Fake News Detection and Analysis》

背景:虚假新闻在数字时代广泛传播,传统检测方法在语义理解与外部验证方面存在局限。

研究对象:提出一种混合验证架构,结合内部分类与外部相似性验证,提升虚假新闻检测的准确性与鲁棒性。

数据与方法:

  • 数据:72,134篇新闻文章(35,028真实,37,106虚假),来源多样,时间跨度为2018-2024年。

  • 方法:

    • 内部分类:使用BERT/DeBERTa进行二分类。

    • 外部验证:使用Tavily API检索相关文章,Ollama LLM进行相似性分析。

    • 决策融合:仅当BERT分类为真且相似性分数>8时判定为真实新闻。

  • 实验:比较不同模型组合(BERT+GPT-2, RoBERTa+GPT-2, DeBERTa+GPT-3)的性能。 成果:

  • DeBERTa+GPT-3组合达到99.78%准确率。

  • 系统支持实时新闻监测,并提供详细的可解释输出。

  • 成本效益显著,每篇文章检测成本仅为$0.003。


3. 《On the Role of Large Language Models in Crowdsourcing Misinformation Assessment》

背景:在线虚假信息泛滥,众包与LLM被用于评估信息真实性,但LLM输出可能影响人类判断。

研究对象:研究LLM在众包虚假信息评估中的作用,分析其对工作者判断与行为的影响。

数据与方法:

  • 数据:从PolitiFact选取120条政治声明,平衡党派与真实性。

  • 方法:

    • LLM输出:使用GPT-3.5生成真实性标签(0-5)与解释。

    • 实验设计:$2\times2$因子设计(无输出、仅标签、仅解释、标签+解释)。

    • 众包任务:通过Prolific招募美国本土工作者评估声明真实性并报告信心。

  • 评估:分析外部一致性、内部一致性、信心水平、依赖行为等。 成果:

  • LLM输出导致众包工作者高估真实性,与LLM倾向一致。

  • 仅提供解释可降低对LLM的过度依赖。

  • LLM辅助下工作者减少搜索行为,评估速度加快。

  • 揭示LLM在虚假信息评估中的“双刃剑”效应。

1. 《Hybrid Fake News Detection Using BERT and Speaker Credibility Ranking via PageRank》

作者: Manasa K, Haripriya, Chandrashekhar Pomu Chavan

背景: 传统假新闻检测模型主要依赖文本语义,忽略了信息来源的可信度等关键上下文因素。

研究对象: 提出一种混合假新闻检测模型,结合语义理解与说话者可信度分析。

数据与模型:

  • 数据: LIAR 数据集(Kaggle),包含政治声明及其元数据。

  • 方法:

    • 使用 BERT 生成语义嵌入。

    • 计算说话者历史可信度分数。

    • 构建说话者-主题二分图,应用 PageRank 算法评估说话者影响力。

    • 融合 BERT 嵌入与元数据特征,输入随机森林分类器。 评估:

  • 性能: 融合模型优于仅文本或仅元数据的基线模型,准确率达 68.9%,F1 分数 0.679。

  • 可视化分析: 展示了说话者可信度与影响力的分布。 成果: 验证了结合语义与可信度特征的有效性,提升了模型对模糊语句的处理能力。


作者: Mohotarema Rashid, Lingzi Hong, Sarah Ryan

背景: 金融假新闻对投资者和市场构成严重威胁,但相关研究缺乏系统性整合。

研究对象: 对2010–2025年间40篇金融假新闻研究进行系统性综述。

数据与方法:

  • 数据来源: 9个学术数据库,涵盖实证研究、检测方法与理论应用。

  • 方法: 采用 SALSA 框架进行检索、评估、综合与分析。 评估:

  • 研究趋势: 2020年后研究显著增长,美国主导研究产出。

  • 主题分类:

    • 市场影响分析(定量研究)

    • 投资者行为干预(定性研究)

    • 检测技术(ML/DL/LLM)

  • 理论应用: 仅4篇研究明确使用理论(如社会传染理论、双过程理论)。 成果: 提出跨学科研究框架,强调结合行为理论与LLM检测技术,推动“人在回路”的金融假新闻治理。


3. 《On the Role of Large Language Models in Crowdsourcing Misinformation Assessment》

作者: Jiechen Xu et al.

背景: 在线虚假信息泛滥,众包与LLM被用于评估信息真实性,但LLM输出存在偏差。

研究对象: 分析LLM对众包工作者评估虚假信息的影响。

数据与模型:

  • 数据: PolitiFact 数据集中的120条政治声明,平衡党派与真实性。

  • 方法:

    • 使用 GPT-3.5 生成真实性标签与解释。

    • 设计 $2\times2$ 实验条件(无输出、仅标签、仅解释、标签+解释)。

    • 通过 Prolific 平台招募众包工作者进行评估。 评估:

  • 评估质量: LLM输出导致众包工作者高估真实性,与LLM倾向一致。

  • 信心水平: LLM输出对信心影响不大,但在标签+解释条件下与外部一致性正相关。

  • 行为指标: LLM辅助下,众包工作者减少搜索行为,评估速度加快。 成果: 揭示LLM在虚假信息评估中的“双刃剑”效应,建议仅提供解释以降低过度依赖风险。

  1. 《Indonesian Fake News Classification Using Bi-LSTM with IndoBERT and Data Augmentation》
  • 背景:印度尼西亚虚假新闻的快速传播对社会、经济和政治产生了严重影响,亟需可靠的检测方法。

  • 研究对象:提出一种基于 Bi-LSTM 架构、结合 IndoBERT 嵌入和反向翻译数据增强的虚假新闻分类模型。

  • 数据与模型:

    • 数据:从 Detik.com 和 Turnbackhoax.id 收集 14,342 条新闻,其中 7,342 条为假新闻,7,000 条为真新闻。

    • 方法:使用 IndoBERT 进行特征提取,Bi-LSTM 进行双向上下文建模,反向翻译进行数据增强,将数据集扩增至 28,684 条。

  • 评估:

    • 准确率:所提模型达到 99.58%,显著优于 SVM(93.87%)、决策树(95.86%)和 KNN(82.34%)。

    • 其他指标:精确率 99.63%,召回率 99.54%,F1 分数 99.59%。

    • 对比实验:无数据增强的 Bi-LSTM 准确率为 94.14%;使用 Word2Vec 嵌入和数据增强的准确率为 97.26%。

  • 成果:证明了 IndoBERT 在印尼语上下文表示中的优越性,以及数据增强对模型泛化能力的显著提升。


  1. 《LIS at CheckThat! 2025: Multi-Stage Open-Source Large Language Models for Fact-Checking Numerical Claims》
  • 背景:数字平台信息快速传播,自动化事实核查成为必要,尤其是涉及数字和时序信息的声明。

  • 研究对象:探索开源大语言模型(如 Mistral、Qwen)在数字声明事实核查中的有效性。

  • 数据与模型:

    • 数据:CheckThat! 2025 任务 3 提供的多语言(英语、西班牙语、阿拉伯语)数据集,包含真实、虚假和冲突标签。

    • 方法:两阶段流程——证据检索(使用 QwQ-32B 生成问题,Linq-Embed-Mistral 检索证据)和真实性预测(使用微调的 Mistral-Small-24B-Instruct-2501 进行分类)。

  • 评估:

    • 宏观 F1 分数:英语 0.595,西班牙语 0.503,阿拉伯语 0.960。

    • 排名:在所有三种语言中均排名第一,阿拉伯语表现尤为突出,显著优于第二名(0.635)。

  • 成果:验证了开源 LLM 在多语言数字声明事实核查中的高效性和可扩展性。


  1. 《Injecting Knowledge Graph Embeddings into RAG Architectures: Scalable Fact-Checking for Combating Disinformation with LLMs》
  • 背景:虚假信息在数字平台蔓延,需构建可验证、可信的系统来应对 LLM 的幻觉问题。

  • 研究对象:将知识图谱嵌入(KGE)注入检索增强生成(RAG)架构,以提高事实核查的准确性。

  • 数据与模型:

    • 数据:使用 WELFake 数据集,通过 OpenIE(Stanford CoreNLP 和 REBEL)构建知识图谱。

    • 方法:使用 TransE 和 RotatE 生成 KGE,结合邻居检索和 GPT-4o 进行最终预测。

  • 评估:

    • 最佳模型:TransE + REBEL 在多项指标(如精确度、上下文理解、来源检索准确性)上表现最佳。

    • 问题:模型倾向于正确分类真实新闻,但对虚假新闻的分类存在困难。

  • 成果:展示了 KGE 与 RAG 结合在提升事实核查透明度和可追溯性方面的潜力。


  1. 《Improving the fact-checking performance of language models by relying on their entailment ability》
  • 背景:虚假信息在网络中蔓延,现有自动化事实核查系统的准确率不足以实际部署。

  • 研究对象:利用生成式语言模型(GLM)的蕴含能力生成支持/反驳理由,训练编码器语言模型(ELM)进行真实性预测。

  • 数据与模型:

    • 数据:LIAR-RAW(六类标签)和 RAW-FC(三类标签)数据集。

    • 方法:三阶段流程——证据分类、理由生成、真实性预测。训练 RoBERTa、XLNet 等 ELM,并使用 LoRA 微调 GLM。

  • 评估:

    • 最佳表现:使用 Llama 生成的理由训练 RoBERTa,在 RAW-FC 上宏观 F1 达 0.88,比基线提升 44.26%。

    • 消融实验:移除支持理由导致性能下降 31.48%(LIAR-RAW)和 12.50%(RAW-FC)。

  • 成果:证明了基于蕴含的理由生成能显著提升事实核查性能,且理由质量与模型表现正相关。


  1. 《On the Role of Large Language Models in Crowdsourcing Misinformation Assessment》
  • 背景:在线虚假信息泛滥,众包和 LLM 被用于评估信息真实性,但 LLM 输出存在偏差。

  • 研究对象:研究众包工作者与 LLM 协作评估虚假信息时,LLM 输出对众包判断的影响。

  • 数据与模型:

    • 数据:从 PolitiFact 选取 120 条平衡党派和真实性的政治声明。

    • 方法:使用 GPT-3.5 生成真实性标签和解释,设计 2×2 因子实验(无输出、仅标签、仅解释、标签+解释)。

  • 评估:

    • 质量:LLM 输出导致众包工作者高估真实性,与 LLM 的高估倾向一致。

    • 行为:LLM 辅助下,众包工作者减少搜索引擎使用,评估速度加快。

    • 信任:众包工作者高度依赖 LLM 输出,尤其在提供标签时。

  • 成果:揭示了 LLM 在虚假信息评估中的“双刃剑”效应,建议仅提供解释以降低过度依赖风险。

  1. 《Fake News Detection After LLM Laundering: Measurement and Explanation》

背景:大型语言模型(LLM)能生成逼真的假新闻,现有检测器对人工撰写文本有效,但对LLM生成的假新闻检测效果尚不明确。

研究对象:研究LLM改写(paraphrasing)对假新闻检测的影响,评估检测器在识别LLM改写假新闻时的表现。

数据与模型:

  • 数据:COVID-19假新闻数据集(二分类)和LIAR政治声明数据集(六分类)。

  • 方法:使用GPT、Llama、Pegasus对原始新闻进行改写,评估17种检测器(包括BERT、T5、LSTM、SVM等)在原始和改写文本上的表现。

  • 评估指标:准确率、F1值、BERTSCORE语义相似度、LIME可解释性分析。 成果:

  • 检测器对LLM改写假新闻的识别能力下降,Pegasus改写最难检测。

  • GPT改写语义相似度最高,Pegasus最易逃避检测。

  • LIME揭示情感偏移是检测失败的可能原因。

  • 提出两个增强版数据集供后续研究使用。


  1. 《Fake News Detection Based on BERT Multi-domain and Multi-modal Fusion Network》

背景:社交媒体中假新闻常为多模态(文本+图像),传统方法未能充分利用模态间关联与跨事件共性特征。

研究对象:提出BMMFN模型,融合多模态特征并引入事件域自适应网络,提升假新闻检测的泛化能力。

数据与模型:

  • 数据:Twitter和Weibo数据集,包含文本和图像。

  • 方法:

    • 文本特征:BERT;图像特征:VGG-19。

    • 构建相似性联合矩阵和注意力矩阵进行特征融合。

    • 引入事件域分类器,通过对抗学习提取事件不变特征。 成果:

  • BMMFN在Twitter和Weibo数据集上优于现有模型(如EANN、CAFE、SMFN)。

  • 文本-图像相似性对检测结果有显著影响。

  • 消融实验验证了各模块(融合网络、事件域适应)的有效性。


  1. 《IMRRF: Integrating Multi-Source Retrieval and Redundancy Filtering for LLM-based Fake News Detection》

背景:现有基于LLM的假新闻检测方法存在证据不足和冗余信息干扰的问题。

研究对象:提出IMRRF框架,融合多源检索与冗余过滤,提升LLM在复杂声明验证中的性能。

数据与模型:

  • 数据:FEVEROUS(句子证据)和HOVER(多跳推理)数据集。

  • 方法:

    • 多源检索:BM25检索Wikipedia + 知识图谱路径检索。

    • 冗余过滤:LLM总结检索证据,去除无关信息。

    • LLM知识转换:利用LLM内部知识生成补充证据。

  • 模型:GPT-3.5-Turbo、GPT-4o、FLAN-T5-XL。 成果:

  • IMRRF在FEVEROUS和HOVER上优于ProgramFC、HiSS等基线方法。

  • 多源检索与冗余过滤显著提升证据质量。

  • 错误分析显示证据不足和LLM幻觉是主要错误来源。


  1. 《IMFND: In-context multimodal fake news detection with large visual-language models》

背景:大视觉语言模型(LVLM)在多模态任务中表现优异,但在假新闻检测(FND)中尚未充分探索。

研究对象:提出IMFND框架,利用小模型的预测结果引导LVLM进行上下文学习,提升FND性能。

数据与模型:

  • 数据:PolitiFact、GossipCop、Weibo(中英文多模态新闻)。

  • 方法:

    • 小模型(CLIP)提取多模态特征并生成预测概率。

    • 将预测与概率作为上下文示例输入LVLM(CogVLM、MiniCPM、GPT-4V)。

    • 无需微调LVLM,仅通过提示工程实现性能提升。 成果:

  • IMFND在少样本设置下显著优于传统ICL和CLIP-LP。

  • 预测概率增强了LVLM的决策信心与稳定性。

  • 消融实验验证了文本模态在FND中的主导作用。

[1] Harnessing Large Language Models and Deep Neural Networks for Fake News Detection

背景: 虚假新闻的传播严重威胁媒体公信力,传统检测方法难以应对日益复杂的虚假信息。

研究对象: 评估基于大语言模型(LLM)的特征提取方法在虚假新闻检测中的效果,并提出三种检测策略。

数据与模型:

  • 数据: 使用 LIAR、FakeNewsNet、Politifact、ISOT 四个公开数据集。

  • 方法:

    • 使用 BERT 嵌入全文训练 DNN 分类器;

    • 使用 LLM 提取事实性句子,再使用 BERT 嵌入训练分类器;

    • 使用 LLM 构建新闻文本的知识图谱,使用图卷积网络(GCN)进行分类。

  • 模型: BERT、Llama 3.1、DeepSeek-R1、GCN。 评估:

  • BERT 全文嵌入在 ISOT 数据集上准确率达 99.93%,优于事实提取(97.08%)和图方法(约 81%)。

  • 图方法在捕捉结构关系方面有潜力,但性能不及全文嵌入。

  • 提出两个新数据集:ISOT-Facts(事实句子)和 ISOT-Graphs(文本图谱)。


[2] Feature computation procedure for fake news detection: An LLM-based extraction approach

背景: 虚假新闻检测中,如何将文本特征有效转化为数值向量是关键挑战。

研究对象: 提出一种基于 LLM 的特征计算流程,结合数值特征与 LLM 嵌入以提升检测性能与可解释性。

数据与模型:

  • 数据: FakeNewsNet(英文)和 Ukrainian Fake & True News(乌克兰语)。

  • 方法:

    • 使用 LLM 提取语义嵌入(如 Llama-3.2-3B);

    • 计算数值特征(如复述率、主观性比率、情感比率等);

    • 将数值特征与 LLM 嵌入结合,输入分类器。

  • 模型: TF-IDF、Word2Vec、BERT、LLM(Llama)。 评估:

  • LLM + 数值特征在英文数据上准确率达 89.6%,乌克兰语达 88.3%,优于所有基线。

  • 数值特征提升了召回率,增强了模型的可解释性。

  • 可视化(t-SNE)显示特征空间分离度增强。


[3] Fake news detection: comparative evaluation of BERT-like models and large language models with generative AI-annotated data

背景: 虚假新闻检测中,标注数据的质量是关键。生成式 AI 标注结合人工审核可提升标签可靠性。

研究对象: 比较 BERT 类编码器模型与自回归解码器 LLM 在虚假新闻分类中的表现。

数据与模型:

  • 数据: 自建 10,000 条新闻数据集(GPT-4 标注 + 人工审核),NELA-GT-2022(弱监督标签)。

  • 方法:

    • BERT 类模型(DistilBERT、BERT、RoBERTa)直接分类;

    • LLM(Llama2-7B、Mistral-7B)采用指令微调 + 多数投票推理。

  • 模型: BERT、RoBERTa、Llama2、Mistral。 评估:

  • BERT 类模型在分类任务中优于 LLM(RoBERTa F1=89.68% vs. Mistral F1=80.23%);

  • LLM 在文本扰动测试中表现更稳健;

  • GPT-4 + 人工标注的标签质量高于弱监督标签。


[4] Graph-of-Thoughts for Fact-Checking with Large Language Models

背景: 自动化事实核查需多步推理与证据检索,传统方法难以处理复杂证据链。

研究对象: 提出基于“思维图谱(GoT)”的迭代式事实核查框架,增强推理深度与证据整合能力。

数据与模型:

  • 数据: AVeriTeC 数据集,包含真实世界声明与证据文档。

  • 方法:

    • 使用 GoT 框架迭代生成问题、检索证据、生成答案、预测结论;

    • 使用 LoRA 微调 Qwen2.5-14B 模型,分别用于问题生成、问答和结论预测;

    • 引入 NEI(信息不足)标签作为停止条件。

  • 模型: Qwen2.5-14B、BM25、FAISS、vLLM。 评估:

  • 在 AVeriTeC 2025 任务中取得竞争性成绩(开发集 AVeriTeC 得分 0.366);

  • 系统效率高,平均每声明处理时间 15.4 秒;

  • 在“支持”类声明上表现较弱,说明证据收集机制有待优化。


[5] On the Role of Large Language Models in Crowdsourcing Misinformation Assessment

背景: 在线虚假信息泛滥,众包与 LLM 被用于评估信息真实性,但 LLM 输出可能误导人类判断。

研究对象: 研究 LLM 输出对众包工作者评估虚假信息的影响。

数据与模型:

  • 数据: 120 条来自 PolitiFact 的政治声明,平衡党派与真实性。

  • 方法:

    • 使用 GPT-3.5 生成真实性标签(0-5)和解释;

    • 设计 2×2 实验条件(无输出、仅标签、仅解释、标签+解释);

    • 通过 Prolific 平台招募众包工作者进行评估。

  • 模型: GPT-3.5。 评估:

  • LLM 输出导致众包工作者高估声明真实性,与 LLM 倾向一致;

  • 仅提供解释可降低对 LLM 的过度依赖;

  • LLM 辅助下,工作者减少搜索引擎使用,评估速度加快;

  • 信心水平与外部一致性在提供标签+解释时正相关。

  1. Fake News Detection via Textual BERT Embeddings and Knowledge-Aware Graph Neural Networks

背景:虚假新闻在数字时代的传播对社会信任和信息可信度构成严重威胁,亟需有效的自动检测方法。

研究对象:提出一种基于知识图谱的虚假新闻检测框架,结合BERT文本嵌入与图神经网络(GCN/GNN)。

数据与模型:

  • 数据集:Twitter、Weibo、PolitiFact、GossipCop

  • 模型:BERT、GCN、GNN、GPT-3

方法:

  • 使用NER提取SPO三元组,构建知识图谱

  • 结合BERT文本嵌入与GCN图嵌入进行融合分类

  • 采用MLP+Softmax进行分类

评估:

  • 评估指标:Accuracy、F1、Precision、Recall、Confusion Matrix

  • BERT准确率61%,GPT-3准确率81%

成果:

  • 提出了一种结合语义与结构信息的虚假新闻检测框架

  • 展示了知识图谱与深度学习模型结合的有效性

  • 未来计划扩展至图像模态与更复杂的图神经网络


  1. Fake News and Offensive Content Detection in Malayalam Using Machine Learning, Deep Learning, and Transformer Based Methods With XAI

背景:马拉雅拉姆语作为低资源语言,缺乏有效的虚假新闻与冒犯性内容检测系统,且模型可解释性差。

研究对象:开发一种结合多语言Transformer与可解释AI(XAI)的虚假新闻与冒犯性内容检测系统。

数据与模型:

  • 数据集:DFND(假新闻)、DravidianCodeMix(冒犯性内容)

  • 模型:mBERT、IndicBERT、XLM-RoBERTa、MuRIL、LSTM、CNN-LSTM等

方法:

  • 使用TF-IDF、FastText、Transformer嵌入

  • 应用LIME、Anchor、Occlusion三种XAI方法进行模型解释

  • 10折交叉验证,超参数调优

评估:

  • XLM-RoBERTa在假新闻检测中F1达99.17%

  • mBERT在冒犯性内容检测中F1达95.95%

  • XAI方法有效识别关键词,提升模型透明度

成果:

  • 首次在马拉雅拉姆语中引入Occlusion和Anchor解释方法

  • 实现了高精度与高可解释性的统一

  • 为低资源语言的NLP任务提供了可复现的基准


  1. Fake News Detection Based on Large Language Models

背景:传统虚假新闻检测方法效率低、易误判,大语言模型(LLM)在文本理解与分类中表现出强大潜力。

研究对象:比较多种LLM在虚假新闻检测中的效果,并探索LoRA微调技术的应用。

数据与模型:

  • 数据集:中英文新闻各约3000条(FakeNewsSet、BBC、网易新闻等)

  • 模型:BERT、ChatGLM-6B、Qwen2.5-vl-72B等

方法:

  • 使用精心设计的Prompt引导LLM进行真假新闻判断

  • 对ChatGLM-6B使用LoRA进行高效微调

  • 评估指标:Accuracy、F1、Precision、Recall

评估:

  • Qwen2.5-vl-72B表现最佳(Accuracy 79.2%,F1 79.9%)

  • LoRA微调显著提升ChatGLM-6B性能(F1从43.2%提升至60.8%)

成果:

  • 验证了LLM在虚假新闻检测中的有效性

  • LoRA微调可显著提升小模型性能

  • 提供了中英文多场景下的LLM应用范例

  1. 《Evaluating open-source Large Language Models for automated fact-checking》

背景:在线虚假信息的泛滥要求自动化事实核查方案。大型语言模型(LLM)显示出潜力,但其在事实核查任务中的有效性尚不明确。

研究对象:评估多种开源 LLM 在事实核查中的能力,重点关注其对不同上下文信息的理解与判断能力。

数据与模型:

  • 数据:使用 Fact-Checking Insights 数据集,包含数万条来自 PolitiFact、AFP、Snopes 等机构的标注声明。

  • 模型:Llama3-8B/70B、Mixtral-8x7B、Mistral-7B,以及微调的 RoBERTa 作为基线。 方法:

  • 三个任务:识别声明与文章关联性、基于文章判断声明真实性、基于外部知识(Google/Wikipedia)进行零样本事实核查。

  • 使用多种提示策略(Zero-Shot、Few-Shot、Chain-of-Thought、ReAct)。 评估:

  • LLM 在识别声明-文章关联方面优于微调模型,但在判断真实新闻时表现较差。

  • 外部知识引入未显著提升性能。

  • 提示设计对性能影响显著,但无单一最优提示策略。 成果:LLM 在事实核查中具有潜力,但尚不能完全替代人工核查,需进一步优化。


  1. 《Explainable Fact-Checking with LLMs》

背景:LLM 在事实核查中的解释能力不透明,存在幻觉问题,影响可信度。

研究对象:评估不同 LLM 在生成忠实、正确解释方面的能力。

数据与模型:

  • 数据:HoVer(多跳推理)、QuanTemp(数值与时间推理)数据集。

  • 模型:LLaMA2、Mistral、Gemma、Phi。 方法:

  • 自动评估(LLM 作为评估者)与人工评估结合。

  • 使用两种提示方式:带标签与不带标签。 评估:

  • Mistral 和 LLaMA2 在忠实性和正确性上表现最佳。

  • 提供标签可提高解释的忠实性。

  • LLM 可作为有效的自动评估者,但存在风格偏好。 成果:揭示了不同 LLM 在解释生成中的优缺点,为构建可信事实核查系统提供依据。


  1. 《Explore the Potential of LLMs in Misinformation Detection: An Empirical Study》

背景:LLM 在虚假信息检测中的能力尚未系统评估,尤其是在利用内容与传播结构方面。

研究对象:评估 LLM 作为检测器与增强器在虚假信息检测中的表现。

数据与模型:

  • 数据:8 个数据集(FND23、FakeNewsNet、LTCR、Twitter、Weibo 等)。

  • 模型:GPT-3.5、GLM、Qwen、Mistral、Vicuna,以及传统模型(BERT、GCN、BiGCN)。 方法:

  • LLM-based:使用多种提示(Vanilla、CoT、Reason-aware、Few-shot)进行检测。

  • LLM-enhanced:使用 LLM 进行特征增强(嵌入)与文本增强(生成评论)。 评估:

  • LLM 在文本检测中表现接近 SLM,但在传播结构理解上显著落后。

  • LLM 增强可提升现有模型性能。

  • LLM 存在主题偏见、幻觉、输入长度限制等问题。 成果:LLM 在虚假信息检测中具有潜力,尤其是在特征与数据增强方面。


  1. 《ExplainGen: a Human-Centered LLM Assistant for Combating Misinformation》

背景:LLM 在判断虚假信息时存在偏见与幻觉,更适合作为人类决策的辅助工具。

研究对象:开发并评估 ExplainGen,一个基于 LLM 的解释生成系统,用于支持人类判断信息可信度。

数据与模型:

  • 数据:从 FactCheck.org、PolitiFact、LIAR-RAW 中爬取并整合数据。

  • 模型:基于 Llama-3.1-8B-Instruct 微调,使用 LoRA 进行高效训练。 方法:

  • 构建包含声明与解释的数据集,用于微调 LLM。

  • 部署为 Web 应用(Gradio + ngrok),用户输入声明,系统返回解释。 评估:

  • ExplainGen 在 ROUGE、BLEU、BERT Score 上均优于基线模型。

  • 生成的解释更准确、更具事实依据,减少幻觉。 成果:提出了一种以人为中心的 LLM 辅助系统,有效支持用户判断信息真实性,未来将引入 RAG 与用户实验进一步优化。

  1. 《Enhancing Health Fact-Checking with LLM-Generated Synthetic Data》

背景:健康领域的事实核查面临标注数据稀缺的问题,尤其是医学专业知识依赖强、标注成本高。

研究对象:提出一种基于大语言模型的合成数据生成流程,用于增强健康类事实核查模型的性能。

数据与模型:

  • 使用 PubHealth 和 SciFact 两个公共数据集。

  • 使用 GPT-4 Turbo 生成摘要、分解原子事实、构建句子-事实支持表。

  • 基于 BERT 构建 FactChecker 模型。 方法:

  1. 文档摘要生成

  2. 原子事实分解

  3. 构建句子-事实支持表

  4. 合成数据生成(按比例采样句子并构造标签)

  5. 结合原始数据微调 BERT 模型 评估:

  • 在 PubHealth 和 SciFact 上 F1 分别提升 0.019 和 0.049。

  • 合成数据比例对性能有显著影响,最优比例因数据集而异。

  • 提出幻觉检测试点研究,验证模型对 LLM 生成摘要中幻觉的识别能力。 成果:提出了一种有效的 LLM 驱动合成数据生成流程,显著提升小模型在健康事实核查任务中的性能,并展示了其在幻觉检测中的潜力。


  1. 《Evaluating open-source Large Language Models for automated fact-checking》

背景:虚假信息泛滥,传统人工核查效率低,LLM 被寄予厚望,但其在事实核查中的有效性尚不明确。

研究对象:评估开源 LLM 在事实核查任务中的表现,重点考察其在不同上下文信息下的能力。

数据与模型:

  • 使用 Fact-Check Insights 数据集(含 AFP、Politifact、Snopes 等来源)。

  • 测试模型:Llama3-8B/70B、Mixtral-8x7B、Mistral-7B。

  • 基线模型:微调 RoBERTa。 方法:

  • 设计三个任务:

    • 识别声明与文章关联性

    • 基于文章判断声明真伪

    • 结合外部知识(Google/Wikipedia)进行零样本事实核查

  • 使用多种提示策略:Zero-Shot、Few-Shot、Chain-of-Thought、ReAct 框架。 评估:

  • LLM 在识别声明-文章关联性方面表现良好,优于 RoBERTa。

  • 在判断真伪时,LLM 对虚假新闻识别较好,但对真实新闻表现差,不如微调 RoBERTa。

  • 外部知识引入未显著提升性能,提示策略对结果影响显著。 成果:LLM 在事实核查中具有一定潜力,但在真实新闻识别和零样本任务中仍不及传统微调模型,提示工程和外部知识融合需进一步优化。


  1. 《Evaluating BERT-based language models for detecting misinformation》

背景:社交媒体中谣言与虚假信息泛滥,传统特征提取方法效率低、效果有限。

研究对象:评估不同 BERT 变体(RoBERTa、BERT、DistilBERT)在推特谣言检测中的表现,比较其文本嵌入质量。

数据与模型:

  • 使用 Pheme、Twitter15、Twitter16 数据集。

  • 模型:RoBERTa、BERT-base、DistilBERT + 神经网络分类器(MLP、ResNet-CNN)。 方法:

  • 微调 BERT 模型生成文本嵌入。

  • 使用 MLP 和 ResNet-CNN 进行分类。

  • 提出统一数据划分标准,进行五折交叉验证。 评估:

  • RoBERTa 嵌入在所有数据集中表现最佳,但与其他模型差异不显著。

  • 在合成数据集(Combined R/NR、Combined T/F)上模型性能显著提升。

  • 简单 MLP 分类器在某些任务中优于复杂 ResNet-CNN。

  • 微调 + 神经网络分类器显著优于仅微调或未微调基线。 成果:证明了 BERT 类模型在谣言检测中的有效性,强调了数据规模与平衡性的重要性,并指出模型复杂度并非性能提升的唯一因素。

  1. Elevating Cyber Threat Intelligence against Disinformation Campaigns

背景:虚假新闻与认知战迅速扩散,威胁公众信任与网络安全。传统CTI依赖易被规避的低级指标(如域名、账号)。

研究对象:提出一种基于语义的CTI框架,利用LLM提取虚假新闻中的结构化概念(实体-关系-对象三元组),构建首个关联虚假新闻与认知战活动的数据集FakeCTI。

数据与模型:

  • 数据:FakeCTI数据集,包含12,155篇文章,43个认知战活动,73个威胁行为者。

  • 方法:使用LLaMA和DeepSeek提取三元组,评估句法、语义相似性和微调DistilBERT进行虚假新闻归因。 评估:

  • 三元组提取:DeepSeek覆盖率达83.4%,LLaMA准确率达81.6%。

  • 归因准确率:微调DistilBERT达94%,显著优于TF-IDF(56%)和SBERT(67.5%)。 成果:提出概念驱动的CTI指标,提升虚假新闻检测与归因的鲁棒性和可扩展性。


  1. Enhancing Multi-Hop Fact Verification with Structured Knowledge-Augmented LLMs

背景:多跳事实核查需理解证据间的复杂逻辑关系,现有方法忽视实体间细粒度关系。

研究对象:提出LLM-SKAN模型,利用LLM提取实体关系三元组,构建异质图进行多跳推理。

数据与模型:

  • 数据:FEVER(单跳)、HOVER(多跳)数据集。

  • 方法:微调Llama2提取三元组,构建关系图,使用GNN进行表示学习与分类。 评估:

  • 在2/3/4跳HOVER上准确率分别达79.90%、78.23%、77.95%,优于所有基线。

  • 消融实验表明三元组提取与图融合对性能提升关键。 成果:LLM-SKAN通过结构化知识增强,显著提升多跳事实核查的准确性与鲁棒性。


  1. Enhanced Feature Representation for Multimodal Fake News Detection

背景:多模态虚假新闻检测模型受限于特征表示质量,预训练模型未适配特定任务。

研究对象:提出MFND-FR-FBV模型,通过局部微调BERT和VGG-19提升多模态特征表示。

数据与模型:

  • 数据:Fakeddit数据集,包含100万+多模态帖子,6类细粒度标签。

  • 方法:微调BERT所有层,微调VGG-19最后卷积块,使用元学习器融合概率输出。 评估:

  • 准确率达91.5%,优于基线模型(如Wang et al. 89.82%)。

  • 文本特征对性能贡献大于图像特征。 成果:局部微调策略显著提升多模态虚假新闻检测的准确性与泛化能力。


  1. Enhancing Health Fact-Checking with LLM-Generated Synthetic Data

背景:健康领域事实核查缺乏标注数据,标注成本高且专业性强。

研究对象:提出基于LLM的合成数据生成流程,构建“句子-事实”支持表,增强训练数据。

数据与模型:

  • 数据:PubHealth、SciFact数据集。

  • 方法:使用GPT-4生成摘要并分解为原子事实,构建支持表,合成文本-声明对用于训练BERT分类器。 评估:

  • 在PubHealth上F1提升0.019,SciFact上提升0.049。

  • 合成数据比例影响性能,最优比例因数据集而异。 成果:LLM生成的合成数据有效缓解数据稀缺问题,提升健康事实核查性能,并可用于检测LLM幻觉。

  1. 《Detection of Fake News in Romanian: LLM-Based Approaches to COVID-19 Misinformation》
  • 背景:COVID-19 疫情期间,罗马尼亚语虚假信息泛滥,缺乏针对低资源语言的检测工具。

  • 研究对象:针对罗马尼亚语的 COVID-19 相关虚假新闻,构建多类别分类模型。

  • 数据与模型:

    • 数据:自建数据集,包含 627 条标注新闻和 7950 条未标注新闻,涵盖 9 类“超级叙事”。

    • 模型:使用 LLaMA 3.1 8B、RoLlama、RoMistral 等 LLM,采用零样本、少样本、监督学习和半监督学习。

  • 方法:

    • 比较不同学习策略,最佳为半监督学习 + LLaMA 3.1 8B。

    • 使用 ReaderBench 提取语言学特征作为基线。

  • 评估:

    • 最佳模型在加权 F1 上达 78.81%,优于传统机器学习方法。

    • 疫苗相关虚假新闻检测效果最好,政治和阴谋论类更具挑战。

  • 成果:提出首个罗马尼亚语 COVID-19 虚假新闻数据集,验证半监督 LLM 在低资源语言中的有效性。


  1. 《Discovering ensembles of small language models out of scarcely labelled data for fake news detection》
  • 背景:虚假新闻检测面临标注数据稀缺和计算效率低的挑战。

  • 研究对象:基于小规模预训练语言模型的集成学习方法,用于虚假新闻检测。

  • 数据与模型:

    • 数据:PolitiFact 和 GossipCop 数据集。

    • 模型:使用 Small BERT 作为基础模型,构建自训练集成模型。

  • 方法:

    • 提出 DEFENSE 框架,通过伪标签和不确定性选择机制进行自训练。

    • 集成多个自训练阶段的模型,使用加权平均融合预测。

  • 评估:

    • 在标注数据仅 1.25%–20% 的情况下,F1 达 67%–85%,优于基线和其他 SOTA 方法。

    • 计算效率高,适合资源受限环境。

  • 成果:提出一种高效、可扩展的半监督集成学习框架,适用于标注稀缺的虚假新闻检测。


  1. Dunamu ML at the Financial Misinformation Detection Challenge Task
  • 背景:金融虚假信息检测任务数据稀缺,需同时分类并生成证据。

  • 研究对象:金融领域虚假信息检测与证据生成。

  • 数据与模型:

    • 数据:FMD 训练集 + 通用领域 Mocheg 数据集(33,880 条)。

    • 模型:使用 Llama-3.1-8B,通过 GPT-4 生成证据进行数据增强。

  • 方法:

    • 使用上下文学习生成证据,基于语义相似性选择少样本示例。

    • 对金融数据过采样后与增强数据合并,进行监督微调。

  • 评估:

    • 在隐藏测试集上,F1 达 84.67,ROUGE-1 达 81.21,排名第一。

    • 消融实验显示数据增强显著提升性能。

  • 成果:提出基于 LLM 的数据增强方法,有效提升金融虚假信息检测与证据生成能力。


  1. 《Digital Food Safety: Insights from Fact-Checking ChatGPT Consumer Interactions》
  • 背景:消费者使用 ChatGPT 获取食品安全信息,但其存在“幻觉”问题。

  • 研究对象:评估 ChatGPT 4.0 Mini 在生成食品安全参考文献方面的可靠性。

  • 数据与模型:

    • 数据:20 条消费者食品安全问题,来自《Risky or Not》播客。

    • 模型:ChatGPT 4.0 Mini。

  • 方法:

    • 提示模型提供支持其回答的研究文献引用。

    • 验证引用是否存在、链接是否有效、信息是否一致。

  • 评估:

    • 仅 35% 的引用有效,其余为无效、错误或虚构。

    • 同一问题重复提问时,模型可能生成不同(错误)引用。

  • 成果:揭示 ChatGPT 在提供参考文献方面不可靠,呼吁消费者谨慎使用其生成内容。

  1. 《Detecting Fake News in Urdu Language Using Machine Learning, Deep Learning, and Large Language Model-Based Approaches》

背景:乌尔都语作为巴基斯坦等国的主要语言,缺乏有效的假新闻检测系统,假新闻对社会尤其是政治领域影响巨大。

研究对象:研究使用机器学习、深度学习和LLM方法检测乌尔都语假新闻的性能。

数据与模型:

  • 数据:Bend the Truth(900条)和 Ax-to-Grind(10,083条)乌尔都语数据集。

  • 方法:

    • 传统ML:Naive Bayes、SVM,特征包括TF-IDF、ACC、GINI等。

    • 深度学习:CNN、LSTM,使用Word2Vec嵌入。

    • LLM:微调BERT和GPT-2。 评估:

  • BERT在Bend the Truth上F1达79%,在Ax-to-Grind上达93%。

  • 传统ML如Naive Bayes在Bend the Truth上F1达78%。

  • 深度学习模型在数据量较小时表现较差,LSTM在Ax-to-Grind上F1达89%。 成果:证明了LLM在乌尔都语假新闻检测中的优越性,尤其在数据量大且平衡时表现最佳。


  1. 《Detecting Chinese Disinformation with Fine-Tuned BERT and Contextual Techniques》

背景:中文虚假信息在数字平台传播迅速,影响社会和政治稳定,需高效检测方法。

研究对象:研究基于BERT和RoBERTa的中文虚假信息检测模型,引入上下文增强技术。

数据与模型:

  • 数据:MCFEND数据集(18,276条新闻,来自微博、微信等)。

  • 方法:

    • 微调BERT和RoBERTa,引入Contextual Unit Obscuration、Multi-span Concealment和Adaptive Concealment技术。

    • 对比传统ML、GRU、BERT-MLP等基线模型。 评估:

  • BERT-Based和RoBERTa-Based模型准确率达83.1%,F1约0.73。

  • 消融实验显示Contextual Unit Obscuration贡献最大。

  • 在多维评估(事实性、来源可靠性等)中表现均衡。 成果:提出了一种针对中文虚假信息的高效检测框架,在准确性和鲁棒性上优于现有方法。


  1. 《Debate-to-Detect: Reformulating Misinformation Detection as a Real-World Debate with Large Language Models》

背景:传统假新闻检测方法依赖静态分类,难以模拟真实事实核查过程。

研究对象:提出D2D框架,将虚假信息检测重构为多智能体辩论过程。

数据与模型:

  • 数据:Weibo21和FakeNewsDataset,预处理后保留高质量样本。

  • 方法:

    • 多智能体辩论:Affirmative、Negative和Judge角色,五阶段辩论(Opening、Rebuttal、Free Debate、Closing、Judgement)。

    • 多维评分机制:事实性、来源可靠性、推理质量、清晰度、伦理。

    • 使用GPT-4o作为基础模型。 评估:

  • D2D在Weibo21和FakeNewsDataset上F1分别达81.97%和81.94%,优于CoT、Self-Reflect和SMAD。

  • 消融实验显示Domain Profile和Multi-dimensional Judgement贡献显著。

  • 对最新新闻(2025年)检测准确率达83.92%,泛化能力强。 成果:D2D通过结构化辩论和多维评估,实现了高精度、可解释的虚假信息检测,模拟了真实事实核查流程。

1. 《Multi-Round Learning Between Large and Small Language Models for Emergent Fake News Detection》

  • 背景:社交媒体假新闻泛滥,传统小模型依赖大量标注数据且难以适应新兴事件,大模型虽具零样本能力但缺乏相关演示与动态知识。

  • 研究对象:提出 MRCD 框架,融合大模型与小模型的泛化与专业能力,用于新兴假新闻检测。

  • 数据与模型:使用 Pheme 和 Twitter16 数据集,LLM 为 Llama3-8B,SLM 为 RoBERTa。

  • 方法:

    • 两阶段检索:从搜索引擎和新闻语料库获取演示,从 Wikipedia 获取最新知识。

    • 多轮学习:LLM 与 SLM 协同推断,通过数据选择模块划分干净与噪声数据池,迭代优化。

  • 评估:在 Pheme 和 Twitter16 上准确率分别提升 7.4% 和 12.8%,优于仅用 SLM 或 LLM 的方法。

  • 成果:MRCD 有效结合 LLM 与 SLM 优势,显著提升新兴假新闻检测性能。


2. 《ClaimCheck: Real-Time Fact-Checking with Small Language Models》

  • 背景:现有事实核查系统依赖大模型,成本高且不透明;小模型在证据合成与判断上存在局限。

  • 研究对象:ClaimCheck,一个基于小模型的实时事实核查系统,使用模块化流程模拟人工核查。

  • 数据与模型:使用 AVeriTeC 数据集,LLM 为 Qwen3-4B。

  • 方法:

    • 五模块流程:查询规划、证据检索、证据总结、证据合成与再检索、评估。

    • 使用实时网络搜索,严格时间过滤避免数据泄露。

  • 评估:在 AVeriTeC 上达到 76.4% 准确率,优于使用 LLaMA3.1 70B 和 GPT-4o 的系统。

  • 成果:证明小模型通过模块化设计与推理能力可实现高效、透明的事实核查。


3. 《CroMe: Multimodal Fake News Detection using Cross-Modal Tri-Transformer and Metric Learning》

  • 背景:多模态假新闻检测需更好捕捉模态内与模态间关系。

  • 研究对象:CroMe 模型,融合跨模态三元 Transformer 与度量学习。

  • 数据与模型:使用 Weibo、Weibo-21、Politifact 数据集,编码器为 BLIP2、BERT、MAE。

  • 方法:

    • 编码器提取文本、图像、图文特征。

    • 度量学习使用代理锚点损失增强模态内关系。

    • 跨模态三元 Transformer 融合多模态特征。

  • 评估:在 Weibo 和 Weibo-21 上准确率分别达 97.4% 和 91.7%,优于现有 SOTA 模型。

  • 成果:CroMe 通过多模态融合与度量学习显著提升假新闻检测性能。


4. 《CredBERT: Credibility-aware BERT model for fake news detection》

  • 背景:现有方法多依赖文本分析,忽略用户可信度在假新闻检测中的作用。

  • 研究对象:CredBERT,融合用户与推文可信度评分与 BERT 嵌入的假新闻检测框架。

  • 数据与模型:使用 CoAID 数据集,BERT 生成嵌入,集成 MLP、CNN、BiLSTM、LR、k-NN 分类器。

  • 方法:

    • 构建用户-推文交互网络,计算用户与推文可信度。

    • 使用多数投票集成多个分类器预测结果。

  • 评估:在平衡与不平衡数据上均优于 FakeBERT 和 BiLSTM,准确率最高提升 6.45%。

  • 成果:CredBERT 通过结合内容与可信度分析,显著提升假新闻检测的鲁棒性与准确性。

  1. Leveraging Vision-Language Models for Misinformation Detection

作者:Parminder Kaur Grewal, Marina Ernst, Frank Hopfgartner

背景:社交媒体中多模态虚假信息(文本+图像)的传播日益猖獗,传统单模态检测方法效果有限。

研究对象:评估多模态大语言模型(MLLM)在虚假信息检测中的有效性,并探索元数据的作用。

数据与模型:

  • 数据:使用 Fakeddit 数据集,包含超过100万条Reddit帖子(文本+图像+元数据)。

  • 模型:评估 CLIP、ViLT、FLAVA 三种预训练MLLM,进行二分类(真/假)和三分类(真/假/混合)任务。

  • 方法:在有无元数据(点赞数、评论数等)两种设置下进行模型微调与评估。 评估:

  • FLAVA 表现最稳定,即使无元数据也能保持高F1分数(0.829)。

  • ViLT 依赖元数据提升性能,CLIP 对元数据融合能力较弱。

  • 元数据中“点赞比例”对分类影响最大。 成果:证实MLLM在多模态虚假信息检测中的潜力,强调元数据融合需谨慎设计,FLAVA 在无元数据时仍具鲁棒性。


  1. Challenges and Innovations in LLM-Powered Fake News Detection

作者:Jingyuan Yi, Zeqiu Xu, Tianyi Huang, Peiyang Yu

背景:虚假新闻对公众信任与社会稳定构成威胁,LLM为检测提供新机遇,但也存在局限性。

研究对象:系统综述LLM在虚假新闻检测中的应用、挑战与未来方向。

数据与模型:

  • 框架综述:包括 MiLk-FD(知识图谱+GNN)、FND-LLM(多模态融合)、DAFND(少样本学习)、SheepDog(风格无关检测)。

  • 数据集:FakeNewsNet、PolitiFact、COVID-19等。 评估:

  • LLM在语义理解、多模态融合方面表现优异,但在对抗攻击、实时检测、跨语言泛化方面存在不足。

  • 当前方法过度依赖文本特征,忽视多模态上下文。

  • 缺乏可解释性,黑箱模型难以获得用户信任。 成果:提出未来应发展风格无关模型、跨语言检测框架、可解释AI系统,并制定LLM使用伦理规范。


  1. CANDY: Benchmarking LLMs’ Limitations in Chinese Misinformation Fact-Checking

作者:Ruiling Guo, Xinwei Yang, Chen Huang, Tong Zhang, Yong Hu

背景:中文网络环境中虚假信息泛滥,LLM在事实核查中的能力与局限性尚不明确。

研究对象:系统评估LLM在中文虚假信息事实核查中的表现,并探索其辅助人类核查的潜力。

数据与模型:

  • 数据:构建 CANDYSET 数据集,包含约2万条中文新闻实例,涵盖政治、健康、社会等多领域。

  • 模型:评估16种LLM(如GPT-4o、ChatGLM、Qwen等)和3种推理模型(如DeepSeek-R1)。

  • 任务:事实核查结论、解释生成、人机协作核查。 评估:

  • LLM在无污染评估和时间敏感事件中表现较差,存在事实幻觉(Factual Fabrication)问题。

  • 在人类辅助实验中,LLM显著提升各教育水平用户的核查准确率(如“Human+LLM+Web”组合最优)。

  • 提出七类错误解释的分类法,如逻辑不一致、事实矛盾、推理不足等。 成果:指出LLM不宜作为独立事实核查工具,但在人机协作中潜力巨大,提出未来应优化提示工程与多语言泛化能力。


  1. CMIE: Combining MLLM Insights with External Evidence for Explainable Misinformation Detection

作者:Fanxiao Li, Jiaying Wu, Canyuan He, Wei Zhou

背景:多模态大模型在检测“上下文不符”虚假信息时,难以捕捉深层语义关联,且易受噪声证据干扰。

研究对象:提出CMIE框架,提升MLLM在OOC虚假信息检测中的性能与可解释性。

数据与模型:

  • 数据:使用 NewsCLIPpings 数据集,包含图像-文本对。

  • 模型:基于 GPT-4o 和 Gemini-Pro,引入 共存关系生成 与 关联评分机制。

  • 方法:

    • 第一阶段:生成图像与文本的共存关系(Coexistence Relationship)。

    • 第二阶段:评估外部证据与共存关系的关联度,筛选高质量证据。 评估:

  • CMIE在准确率(91%)和F1分数上优于CLIP、CCN、SNIFFER等基线模型。

  • 在证据噪声环境下仍保持稳定,生成解释更全面、更接近人类判断。

  • 多阶段流程虽存在误差传播风险,但关联评分机制有效缓解该问题。 成果:CMIE显著提升MLLM在OOC虚假信息检测中的性能与可解释性,为融合外部证据的MLLM应用提供新范式。


  1. On the Role of Large Language Models in Crowdsourcing Misinformation Assessment

作者:Jiechen Xu et al., The University of Queensland

背景:在线虚假信息的泛滥削弱了网络内容的可信度。众包和大语言模型(LLM)被提出用于评估虚假信息,但 LLM 的输出并不完美。

研究对象:研究众包工作者与 LLM 协作评估虚假信息的场景,分析 LLM 对众包工作者判断的影响。

数据与模型:

  • 数据:从 PolitiFact 数据集中选取 120 条平衡党派和真实性的政治声明。

  • 方法:

    • LLM 输出:使用 GPT-3.5 为每条声明生成真实性标签(0-5)和解释。

    • 实验设计:采用 $2\times2$ 因子设计,4 个条件(无 LLM 输出、仅标签、仅解释、标签+解释)。

    • 众包任务:通过 Prolific 平台招募美国本土、英语为母语的众包工作者,评估声明真实性并报告信心水平。 评估:

  • 评估质量:LLM 输出导致众包工作者倾向于高估真实性,与 LLM 的高估倾向一致。外部一致性(与专家标签对比)和内部一致性(众包工作者间一致性)在各条件下无显著差异。

  • 信心水平:LLM 输出对众包工作者的自评信心影响不大,但在提供标签和解释的条件下,与外部一致性正相关。

  • 依赖与信任:众包工作者高度依赖 LLM 输出,尤其在提供标签时,但对 LLM 的信任未受 LLM 输出类型显著影响。

  • 行为指标:LLM 辅助下,众包工作者减少搜索引擎使用,加快评估速度,但积极使用搜索引擎的工作者对 LLM 输出依赖度低。 成果:揭示 LLM 在虚假信息评估中的“双刃剑”效应,强调其对众包工作者判断的显著影响,同时指出仅提供解释可降低过度依赖风险。

📄 1. 《Benchmarking Hook and Bait Urdu news dataset for domain-agnostic and multilingual fake news detection using large language models》

📌 摘要

该研究构建了首个大规模、多领域、真实世界的乌尔都语假新闻数据集 Hook and Bait Urdu,包含 78,409 条真假新闻,并使用 LLaMA 2 模型进行微调,实现了单语(乌尔都语)和多语(乌尔都语+英语)假新闻检测。

🔍 核心内容

  • 数据集构建:从真实新闻网站和事实核查网站收集新闻,由乌尔都语母语专家标注。

  • 模型方法:使用 LLaMA 2 7B 模型,采用 LoRA(低秩适应) 微调,仅训练 0.032% 的参数。

  • 实验:

    • 单语检测:准确率 97.8%,F1 0.971

    • 多语检测(乌尔都语+英语 ISOT 数据集):准确率 98.4%,F1 0.980

💡 创新点

  • 首个大规模乌尔都语假新闻数据集

  • 使用 LoRA 高效微调大模型,实现多语检测

  • 验证了 LLM 在低资源语言中的迁移能力

🧪 实验与代码

python

复制下载
示例:使用 Hugging Face 加载 LLaMA 2 + LoRA_from peft import LoraConfig, get_peft_model model = ... # LLaMA 2 模型 lora_config = LoraConfig(r=4, lora_alpha=8, target_modules=["q_proj", "v_proj"]) model = get_peft_model(model, lora_config)

🚀 应用启发

  • 可扩展到其他低资源语言的假新闻检测

  • LoRA 微调方法适用于计算资源有限的场景


📄 2. 《Bert Attention-based BiLSTM Intelligent Mode for Fake Text Detection》

📌 摘要

提出一种结合 BERT、Attention 机制和 BiLSTM 的混合模型,用于假文本检测,在自建数据集上达到 90.24% 准确率。

🔍 核心内容

  • 模型结构:

    • BERT 提取上下文向量

    • Attention 机制加权关键信息

    • BiLSTM 进行序列建模和分类

  • 实验对比:优于 Bert-LSTM、Bert-BiLSTM、Bert-Attention-LSTM 等变体

💡 创新点

  • 将 BERT 的语义理解与 BiLSTM 的序列建模能力结合,增强模型对虚假文本的捕捉能力

🧪 实验与代码

python

复制下载

import torch.nn as nn

class BertBiLSTMAttention(nn.Module):def __init__(self):

self.bert = BertModel.from_pretrained('bert-base-uncased')

self.bilstm = nn.LSTM(768, 256, bidirectional=True)

self.attention = nn.MultiheadAttention(512, num_heads=8)

self.classifier = nn.Linear(512, 2)

🚀 应用启发

  • 适用于任何需要结合语义与序列信息的文本分类任务

  • 可迁移到谣言检测、情感分析等任务


📄 3. 《Beyond Translation: LLM-Based Data Generation for Multilingual Fact-Checking》

📌 摘要

提出一种使用 LLM 自动生成多语种事实核查数据集 的流程,构建了 MultiSynFact 数据集(220 万条),支持西班牙语、德语、英语等。

🔍 核心内容

  • 数据生成流程:

    • 从 Wikipedia 提取句子

    • 使用 Mistral-7B 生成支持、反驳、无信息的声明

    • 使用 MNLI 和 LLM 自动过滤和评估

  • 实验:在多个事实核查数据集上验证了生成数据的有效性

💡 创新点

  • 首次使用 LLM 生成多语种事实核查数据

  • 自动过滤机制保证数据质量

🧪 实验与代码

python

复制下载
示例:使用 Mistral 生成声明_from transformers import pipeline generator = pipeline('text-generation', model='mistralai/Mistral-7B-Instruct-v0.2') prompt = "Generate a claim in Spanish that refutes the following: ..." claim = generator(prompt, max_length=100)

🚀 应用启发

  • 可用于低资源语言的数据增强

  • 适用于任何需要大规模标注数据的 NLP 任务


📄 4. 《An Explainable KG-RAG-Based Approach to Evidence-Based Fake News Detection Using LLMs》

📌 摘要

提出一种基于 知识图谱检索增强生成(KG-RAG) 的假新闻检测方法,在 AVeriTeC 数据集上实现可解释的虚假声明验证。

🔍 核心内容

  • 框架步骤:

    • 声明类型分类

    • 使用 HippoRAG 2 构建知识图谱

    • 多步证据检索与问答

    • 最终真实性预测

  • 实验结果:AVeriTeC 得分 0.32,优于基线

💡 创新点

  • 将 KG 与 RAG 结合,提升多跳推理能力

  • 实现可解释的假新闻检测

🧪 实验与代码

python

复制下载
示例:使用 HippoRAG 2 检索证据_from hipporag import HippoRAG retriever = HippoRAG(index_path='path_to_kb') evidence = retriever.retrieve(claim, k=5)

🚀 应用启发

  • 适用于需要外部知识验证的任务,如事实核查、问答系统

  • 可扩展到法律、医疗等领域的证据检索


📄 5. 《Arabic Fake News Detection in Social Media Context Using Word Embeddings and Pre-trained Transformers》

📌 摘要

构建了一个阿拉伯语假新闻数据集,并比较了多种 预训练 Transformer(如 AraBERT、CAMeLBERT)和词嵌入(AraVec) 在假新闻检测任务上的表现。

🔍 核心内容

  • 数据集构建:从 Twitter 和已有数据集中收集,人工标注

  • 模型比较:AraBERT、CAMeLBERT、ARBERT、MARBERT、AraELECTRA、AraVec + 多种分类器(SVM、LR、DNN 等)

  • 最佳结果:CAMeLBERT + DNN,准确率 72.6%

💡 创新点

  • 系统比较了多种阿拉伯语预训练模型在假新闻检测上的表现

  • 提供了阿拉伯语假新闻检测的基准数据集

🧪 实验与代码

python

复制下载

from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("CAMeL-Lab/bert-base-arabic-camelbert-mix")

model = AutoModel.from_pretrained("CAMeL-Lab/bert-base-arabic-camelbert-mix")

🚀 应用启发

  • 适用于多方言、低资源语言的文本分类任务

  • 可推广到其他语义复杂的语言如乌尔都语、波斯语等


✅ 总结与核心启发

td {white-space:nowrap;border:0.5pt solid #dee0e3;font-size:10pt;font-style:normal;font-weight:normal;vertical-align:middle;word-break:normal;word-wrap:normal;}
论文 核心创新 可迁移应用
Hook and Bait Urdu 低资源语言数据集 + LoRA 微调 多语种假新闻检测
Bert-Attention-BiLSTM 语义+序列混合模型 文本分类、情感分析
MultiSynFact LLM 生成多语种数据 数据增强、低资源 NLP
KG-RAG 知识图谱增强检索 事实核查、问答系统
Arabic Fake News 多模型比较 + 阿拉伯语数据集 多方言语言处理

🌟 最核心启发:

  • 低资源语言 可通过 LLM 微调 + 数据生成 实现高性能检测

  • 混合架构(BERT+BiLSTM+Attention) 在文本分类中依然强大

  • KG-RAG 为可解释 AI 提供了新思路

  • 多语种、多方言 处理是未来 NLP 的重要方向

📄 第一篇:《A reasoning based explainable multimodal fake news detection for low resource language using large language models and transformers》

🎯 核心内容概述:

本文提出一个多模态假新闻检测系统,专门针对低资源语言泰米尔语,结合了图像、标题、新闻内容以及LLM生成的图像描述,并引入可解释人工智能(XAI) 提供推理依据。

💡 核心创新点:

  1. 构建首个泰米尔语多模态假新闻数据集(来自事实核查网站和新闻网站)。

  2. 使用 LLM(Gemini-Pro-Vision)生成图像描述,增强模型对图像内容的理解。

  3. 引入 Siamese网络 计算标题与图像描述的相似性。

  4. 使用 XAI(LIME) 提供预测的可视化解释。

🧠 关键算法/方法:

  • 多模态特征融合:使用 mBERT/XLMRoBERTa 处理文本,ViT/DeiT 处理图像。

  • LLM图像描述生成:

  • python

  • 复制下载

伪代码示例_from google.generativeai import GenerativeModel model = GenerativeModel('gemini-pro-vision') response = model.generate_content([prompt, image]) description = response.text

  • Siamese网络:计算标题与图像描述的语义相似性。

  • XAI分析:使用LIME对文本预测进行解释,并与图像内容对齐。

🧪 实验成果:

  • 最佳模型(DeiT + mBERT + LLM描述)达到 F1=0.8736。

  • 引入LLM描述后,对“FALSE”类别的识别提升显著。

  • 错误分析显示,模型在缺乏支持图像或文本信息时表现较差。

🚀 可迁移应用启发:

  • 低资源语言的多模态建模:可推广到其他语言如印地语、孟加拉语等。

  • LLM增强图像理解:适用于图像标注、视觉问答、内容审核等任务。

  • 可解释性设计:适用于医疗诊断、金融风控等需要解释的领域。


📄 第二篇:《ABERT: Adapting BERT model for efficient detection of human and AI-generated fake news》

🎯 核心内容概述:

本文提出 ABERT(Adapter-BERT),一种参数高效的BERT适配器方法,用于检测人类和AI生成的假新闻,在保持性能的同时大幅减少可训练参数(约67.7%)。

💡 核心创新点:

  1. 引入Adapter模块,冻结BERT主体,仅训练Adapter,实现参数高效微调。

  2. 提出 动态跳跃连接,通过可学习参数α平衡原始输出与Adapter输出。

  3. 在多个数据集(PolitiFact, GossipCop, AI-generated)上验证有效性。

🧠 关键算法/方法:

  • Adapter结构:在每个BERT层后插入两层MLP + ReLU。

  • 动态融合公式:

  • Gi=α⋅Fi+(1−α)⋅Si_Gi_=α_⋅_Fi+(1−_α_)⋅_Si_

  • 训练目标:二元交叉熵损失。

🧪 实验成果:

  • 在PolitiFact上达到 91.98% 准确率,接近全参数微调BERT(92.59%)。

  • 仅需 3900万参数,远少于全微调BERT(1.1亿)。

  • 在AI生成数据上达到 99.09% 准确率。

🚀 可迁移应用启发:

  • 参数高效微调(PEFT):适用于所有Transformer模型(如RoBERTa、T5)。

  • 轻量级部署:适合边缘设备、移动端NLP应用。

  • 多任务学习:Adapter可独立训练,适用于多任务场景。


📄 第三篇:《Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection》

🎯 核心内容概述:

本文提出 AdStyle,一种对抗性风格增强方法,使用 LLM自动生成风格转换提示,提升假新闻检测模型对风格转换攻击的鲁棒性。

💡 核心创新点:

  1. 自动化对抗提示生成:LLM根据历史表现生成最混淆检测器的风格转换提示。

  2. 多轮对抗训练:每轮选择最优提示进行数据增强。

  3. 多样性、对抗性、一致性 三合一提示选择策略。

🧠 关键算法/方法:

  • 提示生成:LLM根据历史提示-分数对生成新提示。

  • 提示选择:

    • 对抗性分数:sadv=−1.8⋅∣AUC−0.5∣+1_sadv_=−1.8⋅∣_AUC_−0.5∣+1

    • 一致性分数:LLM判断改写后是否保持原意

    • 使用k-means++选择多样性提示

  • 多轮训练:每轮更新提示并增强数据。

🧪 实验成果:

  • 在PolitiFact上对四种风格攻击(CNN, NYT, The Sun, National Enquirer)均表现最优。

  • 在10%小数据场景下提升显著。

  • 生成的句子困惑度更高,模型更鲁棒。

🚀 可迁移应用启发:

  • 对抗性数据增强:适用于文本分类、情感分析、垃圾邮件检测。

  • 提示工程自动化:可推广到所有LLM应用场景(如内容生成、翻译、摘要)。

  • 鲁棒性训练:适用于安全敏感领域(如欺诈检测、内容安全)。


💎 总结与核心启发:

td {white-space:nowrap;border:0.5pt solid #dee0e3;font-size:10pt;font-style:normal;font-weight:normal;vertical-align:middle;word-break:normal;word-wrap:normal;}
论文 核心创新 关键技术 可迁移方向
多模态泰米尔语检测 LLM增强图像理解 + XAI Gemini-Pro-Vision, Siamese, LIME 低资源多模态任务、可解释AI
ABERT 参数高效微调 Adapter, 动态融合 轻量NLP模型、多任务学习
AdStyle 对抗性风格增强 LLM提示生成、多轮训练 文本鲁棒性、自动化提示工程

🌟 最核心启发:

  1. LLM不仅是推理工具,更是数据增强与特征增强的引擎。

  2. 参数高效微调是未来大模型落地的关键路径。

  3. 对抗性训练与可解释性是构建可信AI系统的双翼。

如果需要我为你实现其中某个算法的代码示例或将其应用到你的项目中,请告诉我你的具体场景。

📘 第一篇:《Automatic Fake News Detection: From Traditional Methods to Large Language Models》

🎯 核心内容概述

这是一篇系统性综述,全面回顾了从传统机器学习到基于大语言模型的虚假新闻检测方法。文章将检测方法分为四大视角:

  • 知识视角:基于事实核查

  • 内容视角:基于文本风格分析

  • 传播视角:基于信息传播图结构

  • 来源视角:基于发布者可信度

💡 核心创新点

  • 系统化分类:将虚假新闻检测方法统一为四大视角,并进一步细分为传统机器学习、深度学习、大语言模型三类。

  • LLM 双重角色分析:既讨论了LLM在生成虚假新闻中的风险,也分析了其在检测中的潜力。

  • 数据集与模型统一对比:提供了31个数据集的统一表格和多个模型的性能对比,便于横向比较。

🧪 主要方法与实验

  • 传统方法:SVM、Naive Bayes、LR、DT、RF 等,在多个数据集上取得90%+准确率。

  • 深度学习方法:RNN、LSTM、BiLSTM、CNN、GNN、Transformer(如BERT),在复杂任务中表现更优。

  • LLM方法:

    • 数据增强(如MegaFake、AdStyle)

    • 文本分类(如SheepDog)

    • 事实核查(如HiSS、FFRR)

    • 上下文分析(如ARG、DELL)

    • 虚假身份识别(如MedGraph、LeRuD)

🧾 代码示例(伪代码)

python

复制下载
使用__BERT__进行虚假新闻分类_from transformers import AutoTokenizer, AutoModelForSequenceClassification model_name = "bert-base-uncased" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSequenceClassification.from_pretrained(model_name) inputs = tokenizer("Your news text here", return_tensors="pt") outputs = model(**inputs) predicted_class = outputs.logits.argmax(-1)

🚀 应用启发

  • 多模态融合:结合文本、图像、音频进行检测。

  • 跨语言泛化:利用多语言BERT或LLM进行低资源语言检测。

  • 可解释性增强:使用Hierarchical Step-by-Step(HiSS)等方法提升模型透明度。

💎 最核心启发

“没有一种方法是万能的” —— 虚假新闻检测需要多视角、多模态、多模型的融合,并结合可解释性技术。


📗 第二篇:《ARAFA: An LLM Generated Arabic Fact-Checking Dataset》

🎯 核心内容概述

本文提出了一个完全由LLM生成的阿拉伯语事实核查数据集ARAFA,包含18.1万条“声明-证据”对,标签为“支持/反驳/信息不足”。该数据集填补了阿拉伯语事实核查数据稀缺的空白。

💡 核心创新点

  • 全自动数据生成流程:使用LLM(GPT-4o)从阿拉伯语维基百科生成声明与证据。

  • 多策略声明反驳:提出五种语义变异策略(如时间、数量、关系等),生成高质量的反驳样本。

  • LLM作为验证器:使用Claude Sonnet 3.5作为“法官”验证标签准确性,达到人类水平(86%~88%准确率)。

🧪 主要方法与实验

  • 生成任务:使用COT提示引导GPT-4o生成声明与证据。

  • 反驳任务:使用五种变异策略生成反例。

  • 验证任务:使用Claude Sonnet 3.5进行四步验证(实体对齐、语法、词汇、语义)。

  • 模型微调实验:在AraBERT、AraModernBERT、Llama、Qwen等模型上微调,最佳Macro F1达77%。

🧾 代码示例(提示工程)

python

复制下载
使用GPT-4o生成声明的COT提示示例(简化)_ prompt = """ 你是一个阿拉伯语事实核查数据生成器。请按以下步骤操作: 1. 阅读文本块,理解主题。 2. 提取实体并构建“心智知识图”。 3. 提取证据文本(原文)。 4. 生成一个复杂声明,确保语法正确、语义清晰。 5. 检查声明是否与证据一致,且非简单复述。 """

🚀 应用启发

  • 低资源语言数据集构建:可推广到其他语言,如乌尔都语、斯瓦希里语等。

  • 教育领域:用于生成阅读理解、逻辑推理题目。

  • 法律与新闻:用于自动生成案例摘要或新闻核查。

💎 最核心启发

“LLM不仅是工具,也是数据工程师” —— 通过精心设计的提示工程,LLM可以自动化生成高质量、多样化的标注数据。


📙 第三篇(实为第二篇的重复文件)

内容与第二篇完全相同,略过。


🧠 综合总结与补充思考

td {white-space:nowrap;border:0.5pt solid #dee0e3;font-size:10pt;font-style:normal;font-weight:normal;vertical-align:middle;word-break:normal;word-wrap:normal;}
文章 核心贡献 方法亮点 可迁移价值
综述文章 系统化分类虚假新闻检测方法 多视角、多模态、LLM双重角色 跨领域模型融合、可解释AI
ARAFA文章 首个LLM生成的阿拉伯语事实核查数据集 全自动生成+多策略反驳+LLM验证 低资源语言数据构建、教育、法律

🧩 补充思考

  • 伦理与偏见:LLM生成的数据可能带有模型训练数据的偏见,需谨慎使用。

  • 可扩展性:ARAFA的生成框架可扩展到多模态(图像+文本)事实核查。

  • 实时检测:未来可将此类方法集成到浏览器插件或社交平台中,实现实时虚假新闻提示。

  1. A BERT-Based Multimodal Framework

核心概念

这篇论文就像给AI装上了"双重视觉"——同时分析文字和图片中的文字来识别假新闻。

最核心创新点

文字+图片文字的双重分析:不仅分析新闻正文,还用OCR技术提取图片中的文字一起分析。

主要方法

python

复制下载
简化版流程_ 文字特征 = BERT模型(清洗后的新闻文字) 图片文字 = OCR技术(预处理后的图片) 融合特征 = 跨注意力机制(文字特征 + 图片文字) 假新闻概率 = 分类器(融合特征)

实验成果

  • 在TRUTHSEEKER数据集上达到99.97%准确率

  • 相比现有方法提升3.35%准确率

应用场景

  • 社交媒体内容审核

  • 新闻平台真实性检测

  • 广告真实性验证

  1. A Dynamic Knowledge Update-Driven Model

核心概念

像人类专家一样持续学习新知识的AI系统,会自己更新知识库。

最核心创新点

动态知识图谱:系统能从真实的新闻中自动提取新知识,更新自己的知识库。

主要方法

python

复制下载
知识更新流程_ 构建知识图谱(从可靠来源) 用蒙特卡洛树搜索分解复杂新闻 → 逐步验证 如果是真新闻 → 提取新知识 → 更新知识图谱

实验成果

  • 在两个真实数据集上达到最优性能

  • 知识更新后检测准确率平均提升1%

应用场景

  • 需要持续学习的问答系统

  • 专业知识更新系统

  • 智能客服知识库维护

  1. A Hybrid Attention Framework

核心概念

让AI像侦探一样多角度分析线索——既看内容深意,又看表面特征。

最核心创新点

统计特征+语义特征的混合注意力:同时分析文字长度、标点使用等表面特征和文字深层含义。

主要方法

python

复制下载

统计特征 = [文字长度, 标点数量, 大写比例, 数字频率]

语义特征 = BERT模型(新闻内容)

混合特征 = 注意力机制(统计特征 + 语义特征)

检测结果 = 分类器(混合特征)

实验成果

  • 在WELFake数据集上F1分数达到0.945

  • 比传统方法提升1.5%

应用场景

  • 垃圾邮件检测

  • 评论真实性分析

  • 文档质量评估

  1. A Multi-Agent Debate Approach

核心概念

让多个AI智能体像辩论队一样讨论新闻真实性。

最核心创新点

三智能体辩论系统:

  • 支持者:找证据证明新闻真实

  • 反对者:找证据证明新闻虚假

  • 主持人:主持辩论并做最终判断

主要方法

python

复制下载
辩论流程_ 基本辩论轮:分析语义异常、信息来源 深入辩论轮:分析逻辑合理性、情感操纵 主持人综合各方观点 → 最终判断 + 解释报告

实验成果

  • 准确率达到84.2%,F1分数0.849

  • 在医疗健康领域检测效果最好(83.6%准确率)

应用场景

  • 复杂决策支持系统

  • 学术论文审稿

  • 商业决策分析

  1. A Hybrid Transformer Model

核心概念

三重优化的超级分类器:Transformer + 双向GRU + 贝叶斯优化。

最核心创新点

贝叶斯优化的混合Transformer:用贝叶斯方法处理模型不确定性,用双向GRU更好理解上下文。

主要方法

python

复制下载

文本特征 = TF-IDF(新闻文本)

模型 = Transformer + 双向GRU编码器

用贝叶斯算法优化参数不确定性

训练 → 达到接近100%准确率

实验成果

  • 训练集100%准确率,测试集99.73%准确率

  • 第10轮训练就基本收敛,学习速度很快

应用场景

  • 高风险分类任务(如医疗诊断)

  • 需要快速准确分类的系统

  • 小样本学习场景

核心启发总结

  1. 多角度分析:单一方法有局限,结合多种技术效果更好

  2. 持续学习:好的AI系统应该能不断更新知识

  3. 可解释性:不仅要准确,还要能解释为什么

  4. 不确定性处理:贝叶斯方法让AI知道"哪些判断不太确定"

  5. 协作思维:多个AI智能体协作比单个AI更可靠

实际应用建议

如果你想在自己的项目中应用这些创新点:

  • 从小开始:先试试混合注意力机制,相对容易实现

  • 重视可解释性:无论做什么AI应用,都要考虑如何向用户解释决策

  • 持续学习思维:设计系统时要考虑如何让模型随时间进步

  • 多模态思维:如果可能,结合文字、图片、声音等多种信息

补充说明

这些论文展示了AI假新闻检测的多个发展方向:

  • 从单一模态到多模态

  • 从静态模型到动态学习

  • 从黑箱决策到可解释判断

  • 从单一模型到多智能体协作

最核心的启示是:优秀的AI系统应该像优秀的人类专家一样,能够多角度思考、持续学习、并解释自己的判断。

📋 研究生例会报告总结

🎯 论文基本信息

  • 标题: Retrieval Augmented Fact Verification by Synthesizing Contrastive Arguments (RAFTS)

  • 作者: Zhenrui Yue 等,伊利诺伊大学厄巴纳-香槟分校

  • 出处: 公开发布,代码开源

  • 核心问题: 如何让事实核查更准确、更可解释,且不依赖超大模型


🧠 主要内容概览

这篇论文解决了一个关键问题:传统事实核查方法过度依赖大语言模型的内部知识,导致在小模型或证据不可靠时性能下降。

RAFTS的核心思想是:通过检索外部证据 + 生成正反两方面论据,让模型进行"辩证思考",从而做出更准确的判断。


💡 主要创新点

1. 检索增强的辩证推理框架

  • 不只是简单地检索证据,而是从证据中生成支持和反驳两种论据

  • 让模型像人类一样,从正反两个方面思考问题

2. 三阶段流水线设计

  • 示例检索:找到最相关的训练样本作为参考

  • 文档检索:从可信来源获取相关证据文档

  • 对比论据生成:基于证据生成正反论据,综合判断

3. 小模型实现大效果

  • 用Mistral 7B这种"小模型"超越了基于GPT-3.5的方法

  • 证明通过好的方法设计,可以降低对模型规模的依赖


🔧 主要方法详解

方法流程:

text

复制下载

输入陈述 → 检索相关文档 → 生成正反论据 → 综合判断 → 输出结果+解释

三大组件:

1. 示例检索组件

  • 使用SimCSE-RoBERTa计算语义相似度

  • 从训练集中找到与当前陈述最相似的样本

  • 为后续的上下文学习提供高质量参考

2. 文档检索组件

  • 两阶段检索:

    • 第一阶段:BM25快速筛选候选文档

    • 第二阶段:稠密检索器精排序

  • 从维基百科等可信源获取证据

3. 对比论据生成

python

复制下载
概念性代码_def generate_contrastive_arguments(claim, retrieved_documents): supporting_args = llm_generate(f"基于这些证据,为什么'{claim}'可能是真的?") refuting_args = llm_generate(f"基于这些证据,为什么'{claim}'可能是假的?")return supporting_args, refuting_args def make_final_judgment(claim, supporting_args, refuting_args, demonstrations):# 综合考虑正反论据和参考样本 final_verdict = llm_reason(claim, supporting_args, refuting_args, demonstrations)return final_verdict


📊 实验部分重点

数据集:

  • LIAR: 政治声明,6分类(从"真"到"胡说八道")

  • RAWFC: 通用声明,3分类(真/半真/假)

  • ANTiVax: 疫苗相关声明,2分类(真/假)

基线对比:

td {white-space:nowrap;border:0.5pt solid #dee0e3;font-size:10pt;font-style:normal;font-weight:normal;vertical-align:middle;word-break:normal;word-wrap:normal;}
方法类型 代表方法 特点
监督学习 dEFEND, SentiHAN 需要大量标注数据
GPT-3.5方法 CoT, ReAct, HiSS 依赖大模型+复杂提示
RAFTS Mistral 7B + 我们的方法 小模型+检索增强

关键结果:

1. 准确率对比:

  • RAFTS (Mistral 7B): F1得分提升8.8%

  • RAFTS (GPT-3.5): F1得分提升12.0%

  • 在三个数据集上都显著优于所有基线

2. 小模型的威力:

  • RAFTS + Mistral 7B 超越了所有GPT-3.5基线方法

  • 证明方法设计 > 模型规模

3. 解释质量:

  • 在礼貌性、事实性、相关性三个维度评估

  • RAFTS生成的解释质量最高

  • 特别是Mistral 7B在事实性方面表现突出


🎯 对研究社区的贡献

理论贡献:

  1. 提出了辩证推理在事实核查中的应用框架

  2. 证明了检索增强 + 对比论据的有效性

  3. 为小模型实现高性能提供了新思路

实践贡献:

  1. 开源代码和框架

  2. 可复现的实验设置

  3. 实际可用的解决方案


💭 我的思考与补充

为什么这个方法有效?

  1. 减少幻觉:通过检索真实证据,减少模型"编造"事实

  2. 全面思考:正反论据让模型考虑更多可能性

  3. 知识更新:检索机制可以获取最新知识,不依赖训练时的静态知识

实际应用价值:

python

复制下载
在实际系统中可以这样应用_def real_world_fact_checking(user_claim):# 1. 检索相关证据 evidence = retrieve_from_trusted_sources(user_claim)# 2. 生成正反论据 pro_args, con_args = generate_contrastive_arguments(user_claim, evidence)# 3. 综合判断并解释 verdict, explanation = synthesize_judgment(user_claim, pro_args, con_args)return {"verdict": verdict, # 真/假/半真"confidence": calculate_confidence(pro_args, con_args),"explanation": explanation,"supporting_evidence": pro_args,"counter_evidence": con_args}

局限性:

  1. 领域适应性:在专业领域(如医疗)检索效果可能下降

  2. 检索质量依赖:如果检索不到相关文档,整个系统性能受影响

  3. 计算成本:检索+生成正反论据比直接判断更耗时


🚀 未来研究方向

基于这篇论文,我认为可以进一步探索:

  1. 多模态事实核查:结合文本、图片、视频证据

  2. 实时事实核查:针对社交媒体流数据的快速验证

  3. 领域自适应:让模型在特定领域(医疗、金融)表现更好

  4. 人机协作:设计人类专家与AI系统的高效协作机制


💎 总结

RAFTS的核心价值在于:它用巧妙的方法设计弥补了模型规模的不足,通过"检索证据 + 辩证思考"的方式,让事实核查更加可靠和可解释。

这篇论文告诉我们:有时候,好的算法设计比单纯堆砌模型参数更重要。

posted @ 2025-11-19 11:26  xiaomaozz  阅读(2)  评论(0)    收藏  举报