随笔分类 -  图神经网络

摘要:标签: 自监督、 图神经 动机 首先, 由于很难改变 GCNs 固有的浅层结构, 如何设计一种基于 GCNs 的一致高效的训练算法来提高其在标签节点较少的图上的泛化性能? 其次, 如何利用基于大量未标记数据的自监督学习方法的优势, 来提高所提出的训练算法的性能? 贡献 我们首先探讨了在标签节点较少的 阅读全文
posted @ 2021-12-13 22:41 owo_owo 阅读(662) 评论(1) 推荐(1)
摘要:标签:自监督学习、图神经网络 动机&背景 在半监督学习任务中, 讨论的是直推式半监督节点分类, 典型的代表是 GCN, 在半监督任务的数据集中有大量的未标记的节点和少量有标记的节点, 其目标是预测未标记的节点的标签. 而自监督也利用同样大量的未标记的数据, 通过代理任务 (pretext tasks 阅读全文
posted @ 2021-12-11 16:13 owo_owo 阅读(398) 评论(1) 推荐(1)
摘要:标签:自监督学习、图神经网络 动机 在没有手工标注的情况下, 如何设计合适的目标函数学习理想的节点表示是个具有挑战的任务, 如何有效捕获图的整体结构仍然是一个具有挑战的问题 更加充分的利用数据本身的问题 贡献 首次尝试研究隐藏在图结构数据中的自然监督信号, 即跳数, 并利用该信号以自监督方式来学习未 阅读全文
posted @ 2021-12-09 09:45 owo_owo 阅读(165) 评论(1) 推荐(1)
摘要:标签:图神经网络 动机 图神经网络主要优点是能够在数据点之间结合稀疏和离散的依赖关系, 但是, 图神经网络也只能在这样的图结构进行使用, 而在真实的世界中的图通常是带有噪声和不完整的, 或者根本不可用的 贡献 提出近似求解一个学习图的边上的离散概率分布的双层规划和学习图卷积网络的图结构和参数 思想 阅读全文
posted @ 2021-12-07 16:47 owo_owo 阅读(361) 评论(1) 推荐(2)
摘要:自监督学习-SLAPS: Self-Supervision Improves Structure Learning for Graph Neural Networks 标签:自监督学习、图神经网络 动机&背景 当可用的图结构表现出高度的同质性 (即连接的节点通常属于同一类) 时, 图神经网路在半监督 阅读全文
posted @ 2021-12-06 21:34 owo_owo 阅读(1028) 评论(1) 推荐(1)
摘要:无监督-TOPOTER: UNSUPERVISED LEARNING OF TOPOLOGY TRANSFORMATION EQUIVARIANT REPRESENTATIONS 标签:无监督学习、图神经网络 动机 当前的 GCNN 监督训练要求标签量非常的大,而在缺乏标签也正是 GCNN 的性能就 阅读全文
posted @ 2021-12-05 21:13 owo_owo 阅读(119) 评论(1) 推荐(1)
摘要:自监督-Self-supervised Training of Graph Convolutional Networks 标签:自监督、图神经学习 动机 GNN 和 CNN 的一个共同点是在网络训练需要大量的标注数据,此外,GCN 需要邻接矩阵 作为输入定义那些非网格数据之间的关系,这导致训练、验证 阅读全文
posted @ 2021-12-03 21:02 owo_owo 阅读(602) 评论(1) 推荐(1)
摘要:无监督-DEEP GRAPH INFOMAX 标签:图神经网络、无监督 动机 在真实世界中,图的标签是较少的,而现在图神经的高性能主要依赖于有标签的真是数据集 在无监督中,随机游走牺牲了图结构信息和强调的是邻域信息,并且性能高度依赖于超参数的选择 贡献 在无监督学习上,首次结合互信息提出了一个图节点 阅读全文
posted @ 2021-11-29 12:21 owo_owo 阅读(1041) 评论(1) 推荐(1)
摘要:自监督-Contrastive Multi-View Representation Learning on Graphs 标签:自监督,图神经网络 动机 GNN 大多数需要依赖于任务的标签来学习丰富的表示,尽管如此,与视频、图像、文本和音频等更常见形式相比,给图打上标签是一项挑战 最近关于通过最大化 阅读全文
posted @ 2021-11-26 22:38 owo_owo 阅读(593) 评论(1) 推荐(1)
摘要:图扩散-Diffusion Improves Graph Learning 标签:图神经网络、扩散技术 动机 图卷积的核心就是图神经网络,就是在一跳邻居节点上进行消息传递,这些消息在每个节点聚合,形成下一层的嵌入。虽然神经网络确实利用了更深层的高阶邻域,但将每一层的消息限制在一跳邻居似乎是随意的武断 阅读全文
posted @ 2021-11-24 22:23 owo_owo 阅读(8261) 评论(1) 推荐(1)
摘要:自监督-Iterative Graph Self-distillation 标签:自监督、图神经、知识蒸馏、图学习、对比学习 动机 在各个领域图是普遍存在,虽然最近的图神经网络 GNN 在节点表示和图表示方面有很大的进展,其都是通过聚合邻居信息结合自身信息并通过非线性变换,但是这些网络的一个关键是需 阅读全文
posted @ 2021-11-22 11:55 owo_owo 阅读(427) 评论(1) 推荐(1)
摘要:自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling 标签:自监督、图神经网络、对比学习 动机 在真实世界中许多数据大部分是有没有标签的,而打上标签的是需要很大花费的 现存的对比学习 阅读全文
posted @ 2021-11-19 11:50 owo_owo 阅读(380) 评论(1) 推荐(1)
摘要:知识蒸馏--Distilling the Knowledge in a Neural Network 动机 在普遍的训练当中,经过 softmax 后都是最大化正标签的概率,最小化负标签的概率。但是这样训练的效果导致了正标签的概率输出越来越接近 1, 负标签的概率越来越接近 0, 使得原本的负标签的 阅读全文
posted @ 2021-11-18 12:12 owo_owo 阅读(478) 评论(2) 推荐(2)
摘要:对比学习-Towards Robust Graph Contrastive Learning 标签:鲁棒性、对比学习、图神经 动机 提升对抗攻击中的鲁棒性,并扩展到自监督对比学习方法中 贡献 提出了图鲁棒对比学习 (GROC),将对抗性转换整合到图形对比学习框架中,这是一种完全自监督的图算法,旨在实 阅读全文
posted @ 2021-11-15 10:09 owo_owo 阅读(585) 评论(1) 推荐(1)
摘要:预训练-Contrastive Self-supervised Learning for Graph Classification 标签:预训练、图神经网络、对比学习 动机 图分类在真实世界中有广泛的应用,比如一些化学分子和生物相关的研究,但是这些分子结构往往有很多,但是缺少真是标记,用于训练的图数 阅读全文
posted @ 2021-11-08 23:03 owo_owo 阅读(261) 评论(1) 推荐(1)
摘要:攻击防御-Backdoor Attacks to Graph Neural Networks 标签:后门攻击、图分类 动机 基于 GNN 的图分类对抗攻击很大程度上尚未进行探索,现有的对抗环境下 GNN 的对抗研究大多数集中在节点分类而不是图分类,节点分类的目的是为每个节点预测一个标签,而图分类任务 阅读全文
posted @ 2021-10-26 22:39 owo_owo 阅读(512) 评论(2) 推荐(1)
摘要:预训练-Graph Contrastive Learning with Adaptive Augmentation 标签:预训练、图神经网络、对比学习 动机 首先,无论是在结构域还是属性域进行简单的数据增强,如 DGI 中的特征移动,都不足以生成不同的邻域,对于节点,特别是在节点特征稀疏的情况下,导 阅读全文
posted @ 2021-10-14 11:44 owo_owo 阅读(312) 评论(0) 推荐(2)
摘要:预训练-GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training 标签:预训练、神经网络 动机 迄今为止,大多数关于图的表示学习工作都集中在单个图或一组固定的图的表示学习上,能够转移到域外数据和任务的工作非常有限 图表示学 阅读全文
posted @ 2021-10-13 22:56 owo_owo 阅读(518) 评论(0) 推荐(0)
摘要:预训练-Graph Contrastive Learning with Augmentations 标签:预训练、图神经网络 动机 对于特定任务的标签可能非常稀缺,利用图神经网络训练出来的结果用于进行下游任务时不是很好 真实世界的图数据往往是巨大的,即使是基准数据集也变得越来越大 针对用于下游任务的 阅读全文
posted @ 2021-10-05 10:11 owo_owo 阅读(563) 评论(0) 推荐(0)
摘要:STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORK 标签: 预训练、图神经网络 动机 在特定任务中,标签数据极其缺失,这个问题在重要的科学领域的图表数据集中更加严重,例如化学和生物,并且数据标签化是资源和时间密集型的 来自真实事件通常包含分布外的样本,这 阅读全文
posted @ 2021-09-29 22:08 owo_owo 阅读(163) 评论(0) 推荐(0)