上一页 1 2 3 4 5 6 ··· 17 下一页
摘要: Tackling Fake News Detection by Continually Improving Social Context Representations using Graph Neural Networks 基于持续增强社交上下文表示的图神经网络虚假新闻检测 论文作者:Nikhil 阅读全文
posted @ 2022-11-22 16:58 silvan_happy 阅读(188) 评论(0) 推荐(0) 编辑
摘要: MDFEND: Multi-domain Fake News Detection MDFEND:多领域假新闻检测 作者:南琼、曹娟 CIKM 2021 short paper 论文地址:https://arxiv.org/pdf/2201.00987.pdf 数据集和代码:https://githu 阅读全文
posted @ 2022-11-22 16:54 silvan_happy 阅读(641) 评论(0) 推荐(0) 编辑
摘要: 1 # !/usr/bin/python 2 # -*- coding: UTF-8 -*- 3 # 参考自:https://blog.csdn.net/qq_39395755/article/details/109305055?spm=1001.2014.3001.5502 4 5 import 阅读全文
posted @ 2022-11-19 17:33 silvan_happy 阅读(63) 评论(0) 推荐(0) 编辑
摘要: DialFact: A Benchmark for Fact-Checking in Dialogue DialFact:对话场景事实核查 作者:Prakhar Gupta, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong 美国卡内基梅隆大学、Salesforce 阅读全文
posted @ 2022-11-19 11:57 silvan_happy 阅读(29) 评论(0) 推荐(0) 编辑
摘要: Zoom Out and Observe:News Environment Perception for Fake News Detection 拉远视界并观察:基于新闻环境感知的虚假新闻检测 作者:盛强 曹娟 中国科学院大学2022ACL中科院计算所数字内容合成与伪造检测实验室 文章地址:http 阅读全文
posted @ 2022-11-15 15:42 silvan_happy 阅读(154) 评论(0) 推荐(0) 编辑
摘要: Compare to The Knowledge: Graph Neural Fake News Detection with External Knowledge 知识对比:基于外部知识的图神经虚假新闻检测 作者:Linmei Hu ;Chuan Shi 北京邮电大学 2021年ACL https 阅读全文
posted @ 2022-11-11 15:11 silvan_happy 阅读(304) 评论(0) 推荐(0) 编辑
摘要: BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension BART:用于自然语言生成、翻译和理解的seq2seq去噪预训练器 作者 阅读全文
posted @ 2022-11-01 10:49 silvan_happy 阅读(480) 评论(0) 推荐(1) 编辑
摘要: 数据链接:https://pan.baidu.com/s/1JS1fTrCrZHonNsywLDLhhQ?pwd=a6uf 提取码:a6uf 推荐数据集参考网站:http://snap.stanford.edu/data/amazon/productGraph/categoryFiles/ 这里只是 阅读全文
posted @ 2022-10-30 09:38 silvan_happy 阅读(65) 评论(0) 推荐(0) 编辑
摘要: 参考网址:https://zhuanlan.zhihu.com/p/352181306 数据链接:https://pan.baidu.com/s/1JS1fTrCrZHonNsywLDLhhQ?pwd=a6uf 提取码:a6uf 1 import pandas as pd 2 from surpri 阅读全文
posted @ 2022-10-30 09:32 silvan_happy 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 1 ''' 2 input hello 3 output ohlol use RNNcell 4 ''' 5 import torch 6 7 input_size=4 8 hidden_size=4 9 batch_size=1 10 # 准备数据 11 idx2char=['e','h','l' 阅读全文
posted @ 2022-10-24 22:25 silvan_happy 阅读(97) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 17 下一页