摘要:
Abstract 在图中生成对比视图比在图像中更具挑战性,因为我们对如何在不改变图标签的情况下显著增强图缺乏先验知识。我们认为,在GCL中,典型的数据增强技术(例如,边缘下降)不能产生足够不同的对比视图来过滤掉噪声。此外,以往的GCL方法采用了两个具有完全相同的神经结构和绑定参数的视图编码器,这 阅读全文
posted @ 2024-03-06 20:25
ANewPro
阅读(135)
评论(0)
推荐(0)
摘要:
Abstract 图对比学习(GCL)已经成为图表示学习的一种主导技术,它最大限度地提高了共享相同语义的成对图增强之间的互信息。不幸的是,由于图数据的多样性,在扩充过程中很难很好地保存语义。目前,GCL的数据扩充大致可分为三种不令人满意的方式。第一,可以通过试错法手动选择每个数据集的增强量。第二 阅读全文
posted @ 2024-03-06 15:26
ANewPro
阅读(142)
评论(0)
推荐(0)

浙公网安备 33010602011771号