上一页 1 2 3 4 5 6 7 8 9 ··· 30 下一页
摘要: 1. 论文介绍 论文题目:Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification 论文领域:图神经网络 论文发表:NIPS 2024 论文背景: 2. 论文摘要 图变换器(GT)最近成为传统消息传递图神经 阅读全文
posted @ 2025-07-02 01:01 zhang-yd 阅读(97) 评论(0) 推荐(0)
摘要: 1. 论文介绍 论文题目:Rethinking graph regularization for graph neural networks 论文发表:AAAI 2021 论文领域:图神经网络 论文背景: 2. 论文摘要 图的拉普拉斯正则化项通常用于半监督表示学习,以提供模型的图结构信息。然而,随着 阅读全文
posted @ 2025-07-01 19:13 zhang-yd 阅读(89) 评论(0) 推荐(0)
摘要: 1. 论文介绍 论文题目:How Powerful are Graph Neural Networks 论文领域:图神经网络 论文发表:ICLR 2019 论文背景: 2. 论文摘要 图神经网络是一种有效的图表示学习框架。GNN遵循邻域聚合方案,通过递归聚合和变换相邻节点的表示向量来计算节点的表示向 阅读全文
posted @ 2025-06-30 20:06 zhang-yd 阅读(89) 评论(0) 推荐(0)
摘要: 1. 论文介绍 论文题目:Can Classic GNNs Be Strong Baselines for Graph-level Tasks? Simple Architectures Meet Excellence 论文发表:ICML 2025 论文领域: 图神经网络 论文背景: 2. 背景介绍 阅读全文
posted @ 2025-06-26 14:05 zhang-yd 阅读(112) 评论(0) 推荐(0)
摘要: 1. 论文介绍 论文名称:signSGD: compressed optimisation for non-convex problems 论文发表:ICML 2018 论文领域:分布式机器学习 2. 背景介绍 使用分布式架构来训练大型神经网络,其梯度通信消耗是一个大的瓶颈。本文的signSGD算法 阅读全文
posted @ 2025-06-26 10:08 zhang-yd 阅读(156) 评论(0) 推荐(0)
摘要: 1,论文介绍 论文题目:Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering 论文范围:图神经网络 论文发表:NIPS,2016 我看网上都把这个叫做ChebyshevNet,那这里就把本文提出的 阅读全文
posted @ 2025-06-25 11:43 zhang-yd 阅读(83) 评论(0) 推荐(0)
摘要: 1. 论文介绍 论文题目:FedGNN: Federated Graph Neural Network for Privacy-Preserving Recommendation 论文领域:联邦学习 + 图神经网络 论文发表: ICML 2021 2. 论文贡献 1,提出了一种新的联邦学习框架,隐私 阅读全文
posted @ 2025-06-24 11:02 zhang-yd 阅读(81) 评论(0) 推荐(0)
摘要: 1. 论文介绍 论文题目:Non-local Neural Networks. CVPR 2018. 论文领域:图像识别 2.相关工作 在传统的计算机视觉的non-local means方法的基础下,提出了non-local operation 可以捕获远距离的特征依赖。不同于卷积操作的只能逐层传递 阅读全文
posted @ 2025-06-24 00:15 zhang-yd 阅读(113) 评论(0) 推荐(0)
摘要: 1.论文介绍 论文题目:Inductive Representation Learning on Large Graphs 论文发表:NIPS 2017 论文背景 2.研究背景 这篇论文之前的图学习的模式都是transductive(直推学习),本文开创了 inductive模式(归纳学习) 解释t 阅读全文
posted @ 2025-06-23 16:04 zhang-yd 阅读(165) 评论(0) 推荐(0)
摘要: 1,论文介绍 论文题目:Semi-Supervised Classification with Graph Convolutional Networks 论文发表 对于传统的半监督学习方法来说,图数据的损失函数:使用了基于图的拉普拉斯正则化项的。 其中L0代表是是有监督损失, 后面的正则化项过于严格 阅读全文
posted @ 2025-06-20 10:18 zhang-yd 阅读(152) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 9 ··· 30 下一页