摘要:
报错解析: 安装了最新的DGL包,之前的一些功能可能省略,或者是合并成了新功能 解决方法: 使用新的功能来代替copy_src 阅读全文
posted @ 2023-05-08 11:07
化繁为简,弃快从慢
阅读(638)
评论(0)
推荐(0)
摘要:
7.1 分布式训练所需的图数据预处理 7.2 分布式计算的API 7.3 运行分布式训练/推断所需的工具 阅读全文
posted @ 2023-05-08 11:05
化繁为简,弃快从慢
阅读(38)
评论(0)
推荐(0)
摘要:
6.1 针对节点分类任务的邻居采样训练方法 6.2 针对边分类任务的邻居采样训练方法 6.3 针对链接预测任务的邻居采样训练方法 6.4 定制用户自己的邻居采样器 6.5 为小批次训练实现定制化的GNN模块 6.6 超大图上的精准离线推断 阅读全文
posted @ 2023-05-08 11:04
化繁为简,弃快从慢
阅读(44)
评论(0)
推荐(0)
摘要:
5.1 节点分类/回归 5.2 边分类/回归 5.3 链接预测 5.4 整图分类 阅读全文
posted @ 2023-05-08 11:04
化繁为简,弃快从慢
阅读(31)
评论(0)
推荐(0)
摘要:
4.1 DGLDataset类 4.2 下载原始数据(可选) 4.3 处理数据 4.4 保存和加载数据 4.5 使用ogb包导入OGB数据集 阅读全文
posted @ 2023-05-08 11:03
化繁为简,弃快从慢
阅读(30)
评论(0)
推荐(0)
摘要:
DGL NN模块是用户构建GNN模型的基本模块。根据DGL所使用的后端深度神经网络框架, DGL NN模块的父类取决于后端所使用的深度神经网络框架。对于PyTorch后端, 它应该继承 PyTorch的NN模块;对于MXNet后端,它应该继承 MXNet Gluon的NN块; 对于TensorFlo 阅读全文
posted @ 2023-05-08 11:03
化繁为简,弃快从慢
阅读(275)
评论(0)
推荐(0)
摘要:
消息传递范式¶ 先由边和两端的节点生成消息,再由聚合函数聚合受到的消息,节点+受到的消息更新自己 2.1 内置函数和消息传递API 消息函数 接受一个参数 edges,这是一个 EdgeBatch 的实例, 在消息传递时,它被DGL在内部生成以表示一批边。 edges 有 src、 dst 和 da 阅读全文
posted @ 2023-05-08 11:02
化繁为简,弃快从慢
阅读(161)
评论(0)
推荐(0)
摘要:
1.1 关于图的基本概念 基本知识 1.2 图节点和边 (1)DGL使用一个唯一的整数来表示一个节点,称为点ID;并用对应的两个端点ID表示一条边。 (2)同时,DGL也会根据边被添加的顺序, 给每条边分配一个唯一的整数编号,称为边ID。(3)在DGL的图里,所有的边都是有方向的, 即边(u,v)表 阅读全文
posted @ 2023-05-08 11:01
化繁为简,弃快从慢
阅读(372)
评论(0)
推荐(0)
浙公网安备 33010602011771号