摘要:
log_softmax log(softmax(X)) function:torch.nn.functional.log_softmax(x, dim=None) nn:torch.nn.LogSoftmax(dim=None) (对于神经网络nn,上式是定义,在feed的时候读入的参数和nn.fu 阅读全文
posted @ 2018-08-24 23:29
sbj123456789
阅读(4464)
评论(0)
推荐(0)
摘要:
one-hot encoding和常规label的转化 常规label指0,1,2,3,4,5,......(一个数代表一类) 增减layer: 参考 https://www.cnblogs.com/marsggbo/p/8781774.html 阅读全文
posted @ 2018-08-24 21:57
sbj123456789
阅读(1250)
评论(0)
推荐(0)
摘要:
scipy.sparse.coo_matrix(arg1, shape=None, dtype=None, copy=False) 主要用于用坐标的方法来构造矩阵,并且由于在sparse下,用的是稀疏矩阵来存储,节省空间 主要用法是coo_matrix((data, (row, col)), sha 阅读全文
posted @ 2018-08-24 16:30
sbj123456789
阅读(437)
评论(0)
推荐(0)
摘要:
batch/iteration/epoch的区别: 深度学习中的batch(batch size,full batch,mini batch, online learning)、iterations与epoch GCN相关: 深度学习新星 | 图卷积神经网络(GCN)有多强大? GRAPH CONV 阅读全文
posted @ 2018-08-24 14:52
sbj123456789
阅读(155)
评论(0)
推荐(0)

浙公网安备 33010602011771号