上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 17 下一页
摘要: Adaptive Diffusion in Graph Neural Networks论文阅读笔记 Abstract ​ 最近提出了图扩散卷积(GDC),利用广义图扩散来扩展传播邻域。然而,GDC中的邻域大小是通过在验证集上进行网格搜索来手动对每个图进行调整的,这使得其泛化实际上受到了限制。为了解决 阅读全文
posted @ 2024-03-13 20:16 ANewPro 阅读(627) 评论(0) 推荐(0)
摘要: Abstract ​ 说明现有的问题:现有的gnn平等地对待用户和项目,不能区分每个节点的不同局部模式,这使得它们在推荐场景中并不理想。 ​ 提出本文的工作:为了解决这一挑战,我们提出了一个节点级自适应图神经网络框架ApeGNN。ApeGNN开发了一种用于信息聚合的节点级自适应融合机制,使每个节点能 阅读全文
posted @ 2024-03-13 17:05 ANewPro 阅读(248) 评论(0) 推荐(0)
摘要: Abstract ​ 图协同滤波(GCF)是在推荐系统中捕获高阶协同信号的一种流行技术。然而,GCF的二部邻接矩阵定义了基于用户-项目交互聚合的邻居,对于交互丰富的用户/项目来说是有噪声的,而对于交互稀缺的用户/项目则不够。此外,邻接矩阵忽略了用户-用户和项目-项目之间的相关性,这可能会限制被聚合的 阅读全文
posted @ 2024-03-11 20:48 ANewPro 阅读(194) 评论(0) 推荐(0)
摘要: BGRL论文阅读笔记 Abstract ​ 自监督学习提供了一个有前途的途径来消除昂贵的标签信息的需要。然而,为了实现最先进的性能,方法通常需要大量的负的例子,并依赖于复杂的扩充。这可能会非常昂贵,特别是对于大型图形。为了解决这些挑战,我们引入了Bootstrapped Graph Latent(B 阅读全文
posted @ 2024-03-11 10:16 ANewPro 阅读(179) 评论(0) 推荐(0)
摘要: Abstract 我们认为,如果没有精心设计的增强技术,图上的扩充可能会任意的做出表现,因为图的底层语义会极大地变化。因此,现有的基于增强的方法的性能高度依赖于增强方案的选择,即与增强相关的超参数。在本文中,我们提出了一种新的无增强图自监督学习框架,即AFGRL。具体地说,我们发现通过与图共享局部结 阅读全文
posted @ 2024-03-10 23:43 ANewPro 阅读(55) 评论(0) 推荐(0)
摘要: Abstract Siamese网络已经成为最近各种无监督视觉表示学习模型的共同结构。这些模型最大限度地提高了一个图像的两个增强之间的相似性,在一定的条件下避免崩溃的解。在本文中,我们报告了令人惊讶的经验结果,简单的Siamese网络可以学习有意义的表示,即使不使用以下内容: (i)负样本对,(ii 阅读全文
posted @ 2024-03-10 10:39 ANewPro 阅读(220) 评论(0) 推荐(0)
摘要: Bootstrap Your Own Latent A New Approach to Self-Supervised Learning论文阅读笔记 Abstract ​ 我们提出了BYOL,一种新的自监督图像表示学习的方法。BYOL依赖于两个神经网络,即在线网络和目标网络,它们相互作用和相互学习。 阅读全文
posted @ 2024-03-09 21:13 ANewPro 阅读(337) 评论(0) 推荐(0)
摘要: Abstract ​ 隐式反馈的普遍性使它们成为构建在线推荐系统的默认选择。虽然大量的隐式反馈缓解了数据的稀疏性问题,但缺点是它们在反映用户的实际满意度方面没有那么干净。例如,在电子商务中,很大一部分点击并不能转化为购买,许多购买最终会得到负面评论。因此,解释隐式反馈中不可避免的噪声对推荐的训练至关 阅读全文
posted @ 2024-03-07 19:11 ANewPro 阅读(135) 评论(0) 推荐(0)
摘要: Abstract ​ 在图中生成对比视图比在图像中更具挑战性,因为我们对如何在不改变图标签的情况下显著增强图缺乏先验知识。我们认为,在GCL中,典型的数据增强技术(例如,边缘下降)不能产生足够不同的对比视图来过滤掉噪声。此外,以往的GCL方法采用了两个具有完全相同的神经结构和绑定参数的视图编码器,这 阅读全文
posted @ 2024-03-06 20:25 ANewPro 阅读(135) 评论(0) 推荐(0)
摘要: Abstract ​ 图对比学习(GCL)已经成为图表示学习的一种主导技术,它最大限度地提高了共享相同语义的成对图增强之间的互信息。不幸的是,由于图数据的多样性,在扩充过程中很难很好地保存语义。目前,GCL的数据扩充大致可分为三种不令人满意的方式。第一,可以通过试错法手动选择每个数据集的增强量。第二 阅读全文
posted @ 2024-03-06 15:26 ANewPro 阅读(142) 评论(0) 推荐(0)
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 17 下一页