图卷积神经网络

图卷积神经网络

普通卷积神经网络研究的对象是有规则的空间结构。如图片是规则的正方形,语音是规则的一维序列等,这些特征都可以用一维或二维的矩阵来表示。
CNN的【平移不变性】在【非矩阵结构】数据上不适用:

  • 平移不变性(translation invariance):在用基础的分类结构比如ResNet、Inception给一只猫分类时,无论猫怎么扭曲、平移,最终识别出来的都是猫,输入怎么变形输出都不变这就是平移不变性,网络的层次越深这个特性会越明显。

图数据中的空间特征具有以下特点:

  • 1) 节点特征:每个节点有自己的特征;(体现在点上)
  • 2) 结构特征:图数据中的每个节点具有结构特征,即节点与节点存在一定的联系。(体现在边上)

总地来说,图数据既要考虑节点信息,也要考虑结构信息,图卷积神经网络就可以自动化地既学习节点特征,又能学习节点与节点之间的关联信息。

图卷积的核心思想是利用『边的信息』对『节点信息』进行『聚合』从而生成新的『节点表示』。

图卷积网络的两种理解方式

GCN的本质目的就是用来提取拓扑图的空间特征。 而图卷积神经网络主要有两类,一类是基于空间域或顶点域vertex domain(spatial domain)的,另一类则是基于频域或谱域spectral domain的。

  • 空域可以类比到直接在图片的像素点上进行卷积。
  • 频域可以类比到对图片进行傅里叶变换后,再进行卷积。

2.1 vertex domain(spatial domain):顶点域(空间域)

基于空间域卷积的方法直接将卷积操作定义在每个结点的连接关系上,它跟传统的卷积神经网络中的卷积更相似一些。代表性的方法有 Message Passing Neural Networks(MPNN)[1], GraphSage[2], Diffusion Convolution Neural Networks(DCNN)[3], PATCHY-SAN[4]等。

2.2 spectral domain:频域方法(谱方法)

思路就是希望借助图谱的理论来实现拓扑图上的卷积操作。从整个研究的时间进程来看:首先研究GSP(graph signal processing)的学者定义了graph上的Fourier Transformation,进而定义了graph上的convolution,最后与深度学习结合提出了Graph Convolutional Network。基于频域卷积的方法则从图信号处理起源,包括 Spectral CNN[5], Cheybyshev Spectral CNN(ChebNet)[6], 和 First order of ChebNet(1stChebNet)[7] 等。

posted @ 2020-07-22 10:31  下一百斤就改名字~园  阅读(373)  评论(0)    收藏  举报