摘要:
weight形状为[out_features, in_features] 简单的说就是,在定义时使用的是[out_features, in_features],而在单层线性神经网络计算时使用的是weight的转置矩阵。 https://blog.csdn.net/dss_dssssd/article 阅读全文
posted @ 2022-01-25 17:56
Tomorrow1126
阅读(854)
评论(0)
推荐(0)
摘要:
torch.matmul(input, other, out = None) 函数对 input 和 other 两个张量进行矩阵相乘。torch.matmul 函数根据传入参数的张量维度有很多重载函数。 阅读全文
posted @ 2022-01-25 17:54
Tomorrow1126
阅读(1045)
评论(0)
推荐(0)
摘要:
Dropout说的简单一点就是:我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强, 因为它不会太依赖某些局部的特征 阅读全文
posted @ 2022-01-25 16:15
Tomorrow1126
阅读(215)
评论(0)
推荐(0)