摘要: 自监督学习-SLAPS: Self-Supervision Improves Structure Learning for Graph Neural Networks 标签:自监督学习、图神经网络 动机&背景 当可用的图结构表现出高度的同质性 (即连接的节点通常属于同一类) 时, 图神经网路在半监督 阅读全文
posted @ 2021-12-06 21:34 owo_owo 阅读(2) 评论(1) 推荐(1) 编辑
摘要: 无监督-TOPOTER: UNSUPERVISED LEARNING OF TOPOLOGY TRANSFORMATION EQUIVARIANT REPRESENTATIONS 标签:无监督学习、图神经网络 动机 当前的 GCNN 监督训练要求标签量非常的大,而在缺乏标签也正是 GCNN 的性能就 阅读全文
posted @ 2021-12-05 21:13 owo_owo 阅读(3) 评论(1) 推荐(1) 编辑
摘要: 自监督-Self-supervised Training of Graph Convolutional Networks 标签:自监督、图神经学习 动机 GNN 和 CNN 的一个共同点是在网络训练需要大量的标注数据,此外,GCN 需要邻接矩阵 作为输入定义那些非网格数据之间的关系,这导致训练、验证 阅读全文
posted @ 2021-12-03 21:02 owo_owo 阅读(5) 评论(1) 推荐(1) 编辑
摘要: 线性方程组 Problem 给出一个线性方程组, 有 \(n\) 个未知数和 \(m\) 个方程 \[ a_{11}x_1 + a_{12}x_2 + ... + a_{1n}x_n = b_1\\ a_{21}x_1 + a_{22}x_2 + ... + a_{2n}x_n = b_2\\ .. 阅读全文
posted @ 2021-12-03 10:14 owo_owo 阅读(2) 评论(1) 推荐(1) 编辑
摘要: 无监督-DEEP GRAPH INFOMAX 标签:图神经网络、无监督 动机 在真实世界中,图的标签是较少的,而现在图神经的高性能主要依赖于有标签的真是数据集 在无监督中,随机游走牺牲了图结构信息和强调的是邻域信息,并且性能高度依赖于超参数的选择 贡献 在无监督学习上,首次结合互信息提出了一个图节点 阅读全文
posted @ 2021-11-29 12:21 owo_owo 阅读(3) 评论(1) 推荐(1) 编辑
摘要: 自监督-Contrastive Multi-View Representation Learning on Graphs 标签:自监督,图神经网络 动机 GNN 大叔多需要依赖于任务的标签来学习丰富的表示,尽管如此,与视频、图像、文本和音频等更常见形式相比,给图打上标签是一项挑战 最近关于通过最大化 阅读全文
posted @ 2021-11-26 22:38 owo_owo 阅读(9) 评论(1) 推荐(1) 编辑
摘要: 图扩散-Diffusion Improves Graph Learning 标签:图神经网络、扩散技术 动机 图卷积的核心就是图神经网络,就是在一跳邻居节点上进行消息传递,这些消息在每个节点聚合,形成下一层的嵌入。虽然神经网络确实利用了更深层的高阶邻域,但将每一层的消息限制在一跳邻居似乎是随意的武断 阅读全文
posted @ 2021-11-24 22:23 owo_owo 阅读(14) 评论(1) 推荐(1) 编辑
摘要: 自监督-Iterative Graph Self-distillation 标签:自监督、图神经、知识蒸馏、图学习、对比学习 动机 在各个领域图是普遍存在,虽然最近的图神经网络 GNN 在节点表示和图表示方面有很大的进展,其都是通过聚合邻居信息结合自身信息并通过非线性变换,但是这些网络的一个关键是需 阅读全文
posted @ 2021-11-22 11:55 owo_owo 阅读(10) 评论(1) 推荐(1) 编辑
摘要: 线性分类-感知机模型 思想 错误驱动 假设数据 $ {(x_i,y_i)}_{i = 1}{N}、x_i \in Rp、y \in {-1, 1}$ 对于感知机模型: \[ f(x) = sign(w^Tx) \quad x\in R^p, w \in R^p \\ sing(a) = \begin 阅读全文
posted @ 2021-11-21 21:43 owo_owo 阅读(10) 评论(1) 推荐(1) 编辑
摘要: 线性分类-逻辑回归 思想 线性回归模型是通过对数据的拟合得到一个线性方程,实现的是对连续目标的 \(X\) ,预测 \(Y\),其范围在 \([+\infty, -\infty]\) 之间;而对于线性分类问题我们是要得到 $ {0, 1},或者 [0, 1]$ ,那如何通过线性回归到线性分类函数上呢 阅读全文
posted @ 2021-11-21 18:08 owo_owo 阅读(2) 评论(1) 推荐(1) 编辑