上一页 1 2 3 4 5 6 7 8 9 10 ··· 56 下一页
摘要: torch.flatten() torch.flatten(x) 等于 torch.flatten(x,0) 默认将张量拉成一维的向量,也就是说从第一维开始平坦化,torch.flatten(x,1) 代表从第二维开始平坦化。 Example: import torch x=torch.randn( 阅读全文
posted @ 2022-03-30 00:39 Learner- 阅读(190) 评论(0) 推荐(0) 编辑
摘要: Example: import torch import torch.nn.functional as F from torch.nn.modules.module import Module from torch.nn.parameter import Parameter class GraphC 阅读全文
posted @ 2022-03-28 15:24 Learner- 阅读(9) 评论(0) 推荐(0) 编辑
摘要: Example: import torch import torch.nn as nn import torch.nn.functional as F class FCC(nn.Module): def __init__(self,input_dim,hidden_dim,output_dim): 阅读全文
posted @ 2022-03-28 14:51 Learner- 阅读(14) 评论(0) 推荐(0) 编辑
摘要: Paper Information 论文标题:Deep Graph Contrastive Representation Learning论文作者:Yanqiao Zhu, Yichen Xu, Feng Yu, Q. Liu, Shu Wu, Liang Wang论文来源:2020, ArXiv论 阅读全文
posted @ 2022-03-28 11:02 Learner- 阅读(144) 评论(0) 推荐(0) 编辑
摘要: Paper Information 论文标题:Contrastive Multi-View Representation Learning on Graphs论文作者:Kaveh Hassani 、Amir Hosein Khasahmadi论文来源:2020, ICML论文地址:download  阅读全文
posted @ 2022-03-27 16:25 Learner- 阅读(178) 评论(0) 推荐(0) 编辑
摘要: Paper Information 论文标题:Graph Representation Learning via Graphical Mutual Information Maximization论文作者:Zhen Peng、Wenbing Huang、Minnan Luo、Q. Zheng、Yu 阅读全文
posted @ 2022-03-26 20:37 Learner- 阅读(168) 评论(0) 推荐(0) 编辑
摘要: 1 自编码器 特征提取是无监督学习中很重要且很基本的一项任务,常见形式是训练一个编码器将原始数据集编码为一个固定长度的向量。自然地,我们对这个编码器的基本要求是:保留原始数据的(尽可能多的)重要信息。 那么我们怎么知道编码向量保留了重要信息呢?一个很自然的想法是这个编码向量应该也要能还原出原始图片出 阅读全文
posted @ 2022-03-26 00:42 Learner- 阅读(87) 评论(0) 推荐(0) 编辑
摘要: Paper Information 论文标题:Simple Unsupervised Graph Representation Learning论文作者:Yujie Mo、Liang Peng、Jie Xu, Xiaoshuang Shi、Xiaofeng Zhu论文来源:2022 AAAI论文地址 阅读全文
posted @ 2022-03-25 11:00 Learner- 阅读(289) 评论(0) 推荐(0) 编辑
摘要: Paper Information 论文标题:Variational Graph Auto-Encoders论文作者:Thomas Kipf, M. Welling论文来源:2016, ArXiv论文地址:download 论文代码:download 相关信息:1214 Citations, 14 阅读全文
posted @ 2022-03-23 16:57 Learner- 阅读(190) 评论(0) 推荐(0) 编辑
摘要: 介绍 pickle是python语言的一个标准模块,安装python后已包含pickle库,不需要单独再安装。 为什么需要序列化和反序列化这一操作呢? 1.便于存储。序列化过程将文本信息转变为二进制数据流。这样就信息就容易存储在硬盘之中,当需要读取文件的时候,从硬盘中读取数据,然后再将其反序列化便可 阅读全文
posted @ 2022-03-23 15:14 Learner- 阅读(142) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 56 下一页