摘要: 一、 GraphSAGE GraphSAGE从两个方面对GCN进行了改动,一方面是通过采样邻域策略将GCN全图(full batch)的训练方式改造成以结点为中心的小批量(mini batch)训练方式,这使得大规模图数据的分布式训练成为可能;另一方面是该算法对聚合邻居操作进行了拓展,提出了替换GC 阅读全文
posted @ 2021-07-23 17:47 菜鸟成长手札 阅读(262) 评论(0) 推荐(0)
摘要: GCN模型无法像视觉任务中的CNN模型一样堆叠很深,一旦使用多层GCN开始学习,相关的任务效果就会急速下降。 使用多层GCN后,节点的区分性变得越来越差,节点的表示向量趋于一致,这使得相应的学习任务变得更加困难。我们将这个现象成为多层GCN的过平滑问题。 如果从空域视角理解过平滑问题: 从空域来看, 阅读全文
posted @ 2021-07-23 12:13 菜鸟成长手札 阅读(657) 评论(0) 推荐(0)
摘要: 在图的半监督学习任务中,通常会在相应的损失函数里面增加一个正则项,该正则项需要保证相邻结点之间的类别信息趋于一致,一般情况下,我们选用拉普拉斯矩阵的二次型作为正则约束: L = L0+Lreg Lreg = f(X)TLf(X) 其中L表示模型的总损失,L0表示监督损失,Lreg 表示正则项,从学习 阅读全文
posted @ 2021-07-22 17:32 菜鸟成长手札 阅读(513) 评论(0) 推荐(1)
摘要: http://www.360doc.com/content/17/1107/09/32196507_701568401.shtml 阅读全文
posted @ 2021-06-24 16:30 菜鸟成长手札 阅读(61) 评论(0) 推荐(0)
摘要: 在实际应用中,通常将图称为网络(Network),与之对应的图的两个要素(顶点和边)也被称为结点(node)和关系(link) 图数据是比较复杂的数据类型。主要介绍一下其中最重要的4类: 同构图(Homogeneous Graph)、异构图(Hetergeneous)、属性图(Property Gr 阅读全文
posted @ 2021-06-18 16:41 菜鸟成长手札 阅读(348) 评论(0) 推荐(0)
摘要: Rahmani, Hossein A., et al. “LGLMF: Local Geographical Based Logistic Matrix Factorization Model for POI Recommendation.” Asia Information Retrieval S 阅读全文
posted @ 2021-06-13 21:40 菜鸟成长手札 阅读(368) 评论(0) 推荐(0)
摘要: 看一下sklearn库中封装的多项式回归方法。 需要调用sklearn.preprocessing库中的PolynomialFeatures方法 degree=2,即数据的最高次数为二次。此时数据已经变为三列了。分别都是什么呢? 第一列相当于是X的零次方。第三列是第二列数据的平方。 进行拟合: 查看 阅读全文
posted @ 2020-08-23 20:25 菜鸟成长手札 阅读(188) 评论(0) 推荐(0)
摘要: 如果一组数据的分布不是近似线性的,应该如何去拟合? 可以添加特征。 如图,引入相应的库,函数y不是一次方程,得到如图所示的数据分布: 如果用一次函数来模拟,得到以下结果: 很显然不合适,丢失了很多数据。 如果直接带入x和预测的y值作为参数,会出现以下的结果: 这是因为x值没有排序,输入排序后的x值后 阅读全文
posted @ 2020-08-23 18:06 菜鸟成长手札 阅读(128) 评论(0) 推荐(0)
摘要: 在解决问题中,θ可能不是一个值,可能是一个向量,所以在求导的时候可以写成求梯度的形式,求函数在每个方向上的偏导数。 其实和上一节处理的问题也相似,只不过这个处理的不是一个数,是一个向量。 这是一个三元函数的曲线图。图中的红色圈圈就是函数曲线。假如起始点从左上角那个点出发,一直到数值最低的点,其实这个 阅读全文
posted @ 2020-07-27 18:38 菜鸟成长手札 阅读(195) 评论(0) 推荐(0)
摘要: 简单实现一下梯度下降法。 首先引入需要的库,然后画一个简单的函数图像。 import numpy as npimport matplotlib.pyplot as plt plot_x = np.linspace(-1,6,141) #画函数曲线,x是范围-1到6内的140个离散点 plot_y = 阅读全文
posted @ 2020-07-27 15:55 菜鸟成长手札 阅读(106) 评论(0) 推荐(0)