会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
lalalala~
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
下一页
2022年1月6日
Graph Representation Learning via Graphical Mutual Information Maximization
该文被密码保护。
阅读全文
posted @ 2022-01-06 11:50 owo_owo
阅读(2)
评论(1)
推荐(1)
2022年1月5日
作业-蒙特卡罗-判断矩阵互逆
摘要: 蒙特卡罗-判断矩阵互逆 题目描述 给定 \(2\) 个 $n×n$矩阵 \(A\) 和 \(B\), 试设计一个判定 \(A\) 和 \(B\) 是否互逆的蒙特卡罗算法, 算法的计算时间应为 \(O(n^2)\). 设计一个蒙特卡罗算法, 对于给定的矩阵 \(A\) 和 \(B\), 判定其是否互逆
阅读全文
posted @ 2022-01-05 10:36 owo_owo
阅读(783)
评论(1)
推荐(1)
2022年1月3日
自监督-CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph Representation Learning
该文被密码保护。
阅读全文
posted @ 2022-01-03 17:01 owo_owo
阅读(1)
评论(1)
推荐(1)
2022年1月2日
自监督-Graph-Based Neural Network Models with Multiple Self-Supervised Auxiliary Tasks
该文被密码保护。
阅读全文
posted @ 2022-01-02 23:10 owo_owo
阅读(1)
评论(1)
推荐(1)
2021年12月30日
图自监督综述-Graph Self-Supervised Learning: A Survey
该文被密码保护。
阅读全文
posted @ 2021-12-30 11:42 owo_owo
阅读(1)
评论(1)
推荐(1)
2021年12月27日
无监督: Node Embedding using Mutual Information and Self-Supervision based Bi-level Aggregation
该文被密码保护。
阅读全文
posted @ 2021-12-27 22:15 owo_owo
阅读(3)
评论(1)
推荐(1)
自监督-Self-Supervised Graph Learning with-Proximity-based Views and Channel Contrast
摘要: 动机 图神经网络使用邻域据级作为核心, 导致邻居节点之间的特征平滑, 虽然在个预测任务中取得成功, 但这种凡是无法扑获远距离节点的相似性, 而对于扑获远距离相似性对于高质量的学习非常重要. GNN 的假设是相似的节点应该有连接并且他们属于同一类的, 通过邻域据级进行局部特征平滑, 这些模型倾向于生成
阅读全文
posted @ 2021-12-27 11:41 owo_owo
阅读(212)
评论(1)
推荐(1)
2021年12月26日
自监督-How to find your friendly neighborhood: Graph Attention Design with Self-Supervision
摘要: 动机 当图存在噪声的时候, 图注意力网络不总是有效的 贡献 提出了两种 GAT 的改进 并且结合边预测的节点作为自监督训练的任务进行训练 技术 符号 对于一个图 \(\mathcal{G}(V,E)\), \(N\) 是节点的数量, \(F^l\) 是第 \(l\) 层的特征, 图注意力层就是将一个
阅读全文
posted @ 2021-12-26 15:22 owo_owo
阅读(479)
评论(1)
推荐(1)
2021年12月22日
自监督-Self-supervised Learning on Graphs:Deep Insights and New Directions
摘要: 动机 图数据于图像或者文本数据不同, 图像或者文本时属于欧式数据且都是服从独立同分布; 而对于图数据而言, 它是非欧式数据, 并且图中的节点相互连接表示着他们独立同分布的 贡献 探究了图上的自监督任务, 具体来说, 图有多种潜在的代理任务; 因此, 了解 SSL 在什么时候和为什么适用于 GNN,
阅读全文
posted @ 2021-12-22 21:52 owo_owo
阅读(673)
评论(1)
推荐(1)
2021年12月20日
GRAPH-BERT: Only Attention is Needed for Learning Graph Representations
摘要: 动机 在当前的主流的图神经网络中过度依赖边的连接, 导致产生了假死问题, 过平滑问题和图的内在互联行阻止了图的并行化. 贡献 提出了一种新的图训练模型 Graph-BERT, 该模型表示学习不依赖于图的连接所以有效的解决假死问题, 当然该模型训练会采样无连接子图(目标节点以及它的上下文), 比现有的
阅读全文
posted @ 2021-12-20 23:01 owo_owo
阅读(431)
评论(1)
推荐(1)
上一页
1
2
3
4
5
6
下一页
公告