摘要: DGL采用attention的方式为节点加权。 import torch import torch.nn as nn import torch.nn.functional as F from dgl import DGLGraph from dgl.data import citation_grap 阅读全文
posted @ 2020-07-28 16:01 樱花庄的龙之介大人 阅读(4540) 评论(0) 推荐(2) 编辑