-
研究背景:网络平台虚假信息快速传播,破坏个体信任并阻碍理性决策,传统检测方法存在局限性。
-
核心方法:提出可解释且计算高效的检测流程,采用基于 Transformer 的预训练语言模型(PLMs),对 RoBERTa 和 DistilBERT 进行两步优化:
-
实验设计:在两个真实世界基准数据集(COVID Fake News、FakeNewsNet GossipCop)上测试,采用统一的数据预处理和分层划分方案。
-
可解释性实现:整合两种解释方法保障透明度:
-
关键发现:DistilBERT 的检测准确率与 RoBERTa 相当,但所需计算资源显著更少。
-
核心贡献:
-
研究结论:结合规范微调与可解释性的 PLMs,可成为可扩展、可信的虚假信息检测有效框架。