随笔分类 - 图神经网络
摘要:https://www.cnblogs.com/pinard/p/6221564.html
        阅读全文
                
摘要:原文链接:https://blog.csdn.net/hgh19951014/article/details/103496747 另外参考:https://www.programcreek.com/python/example/91391/sklearn.utils.linear_assignmen
        阅读全文
                
摘要:超图 embedding 相关论文笔记。按照时间先后排序 名称 会议/期刊 时间 Hypergraph Neural Network 会议 2019.2 Dynamic Hypergraph Neural Networks 会议 2019 Be More with Less: Hypergraph 
        阅读全文
                
摘要:这篇文章简单讨论一下 transductive learning 与 inductive learning 的概念及区别。 维基百科的定义: Transduction is reasoning from observed, specific (training) cases to specific 
        阅读全文
                
摘要:写这一篇博客,并不是想要系统的讲解深度学习中所使用到的与概率论相关的知识,只是近期在阅读一些论文时,频繁地遇到了与此相关的知识点。我上网查了相关资料,总结出此文。 1 supervised learning 对于 supervised learning,分布指的是关于特征 \(X\) 和结果 \(Y
        阅读全文
                
摘要:看了一些论文的代码,个人感觉 GATE 的代码相对容易读懂一点。本文简单解读一下 GATE 的代码,帮助自己加深理解。为了简洁起见,本文只介绍 inductive 部分,transductive 部分变化不大,不作赘述。由于我是一个 python 和 tensorflow 的小白,本文有些位置会出现
        阅读全文
                
摘要:本文包括了 GCN,GAT 及基于这些模型的 AE 来获取 embedding 和 进行 clustering 相关论文。着重介绍其方法、框架、训练流程、效果。 名称 会议/期刊 时间 Variational Graph Auto-Encoders NIPS 2016 Adversarially R
        阅读全文
                
摘要:1. GRAPH ATTENTION NETWORKS | 2018.2.4 图上节点间注意力机制,计算量是 $O(n^2)$的。博文:https://zhuanlan.zhihu.com/p/81350196 2. HGNN | 2019.2.23 HGNN 是一种基于谱域的超图学习方法。该方法首
        阅读全文
                
摘要:0. 概述 Cora 数据集由机器学习论文组成,是近年来图深度学习很喜欢使用的数据集。在数据集中,论文被分为以下七类之一: 基于案例 遗传算法 神经网络 概率方法 强化学习 规则学习 理论 论文的选择方式是,在最终语料库中,每篇论文至少引用一篇论文或被至少一篇论文引用(即至少有一条出边或至少有一条入
        阅读全文
                
摘要:0. 前言 图,如社交网络、单词共存网络、通信网络,广泛存在于各种现实应用中。通过对图的分析,我们可以深入了解社会结构、语言和不同交流模式,因此图一直是学界研究的重点。 1. 图分析任务的分类 图分析任务可以大致抽象为以下4类: 节点分类 基于其他标记的节点和网络拓扑结构来确定点的标签(label)
        阅读全文
                
摘要:Graph Attention Networks (GAT) 代码解读 1.1 代码结构 . | data # Cora数据集 | models # GAT模型定义(gat.py) | pre_trained	# 预训练的模型 | utils # 工具定义 1.2 参数设置 GAT/execute_
        阅读全文
                
摘要:异质图注意力网络(Heterogeneous Graph Attention Network,HAN) 0 摘要(Abstract) GNN是一种基于深度学习的强大的图表示学习算法,它有着优越的性能。然而,GNN并没有对异质图(具有不同类型的节点和边)这一数据结构作充分的考虑。 异质图的丰富的语义信
        阅读全文
                
摘要:超图的线展开(Hypergraph Learning with Line Expansion) 0. 摘要(Abstract) 已有的超图转化为简单图的方法包括连通分量扩展法、星形扩展法,这些超图展开方法仅在超点或超边的级别上进行,因此缺少了共现数据的对称性,导致了高维数据的信息丢失。为了解决这一问
        阅读全文
                
摘要:超图卷积网络(HyperGCN: A New Method of Training Graph Convolutional Networks on Hypergraphs) 1. 简介 (Introduction) 1.1 背景 (Backgrounds) 在许多诸如co-authorship网络,
        阅读全文
                
摘要:Semi-supervised Learning 1. What is Semi-supervised Learning Supervised Learning labeled data:\(\{(x^r,\hat{y}^r\}_{r=1}^R\) E.g: image,\(\hat{y}^r\):
        阅读全文
                
摘要:超图神经网络(Hypergraph Neural Nerworks,HGNN) 1. 超图学习(Hypergraph Learning) 在本节中我们简单回顾超图的定义及常见性质。 1.1 什么是超图 超图与常见的简单图不同。对于一个简单图,其每条边均与两个顶点相关联,即每条边的度都被限制为2。而超
        阅读全文
                
摘要:GNN:权重依靠认为设定或学习得到 GCN:依赖于图结构决定更新权重。\(H^{(l+1)}=\sigma{(\hat{D}^{-\frac{1}{2}} \hat{A}\hat{D}^{-\frac{1}{2}} H^{(l)} W^{(l)})}\) GAT:GAT是对于GCN在邻居权重分配问题
        阅读全文
                
摘要:超图(Hypergraph)是什么 原文链接:超图(Hypergraph)是什么 简单的来说,对于我们熟悉的图而言,它的一个边(edge)只能和****两个**顶点连接;而对于超图来讲,人们定义它的边(这里叫超边,hyperedge)可以和任意个数**的顶点连接。一个图和超图的示意图如下所示: 而对
        阅读全文
                
 
                    
                     
                    
                 
                    
                
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号