随笔分类 -  pytorch

摘要:当我们的模型训练好之后,需要将其参数(或整个模型)保存起来以便日后直接使用。pytorch提供了两种方法帮助我们快速、方便地保存训练好的模型 步骤 训练模型 保存模型 加载模型 训练模型 我们以二分类问题为例,训练一个神经网络,代码如下: import torch import torch.nn.f 阅读全文

posted @ 2021-09-13 21:43 foghorn 阅读(351) 评论(0) 推荐(0) |

摘要:当我们单独使用nn.Softmax()函数时,会显示上述警告,原因是softmax()函数已经被弃用了,虽然程序还是可以运行成功,但是这个做法不被pytorch所赞成。这个写法在早期的pytorch版本是没有警告的,现在因为其他考虑,要加上有指明dim参数。 例如: m = nn.Softmax(d 阅读全文

posted @ 2021-09-13 20:58 foghorn 阅读(537) 评论(0) 推荐(0) |

摘要:LogSoftmax(dim=None) 对n维输入张量做softmax操作并取对数。 \(LogSoftmax(x_{i})=log(\frac{exp(x_{i})}{\sum_{j}exp(x_{j})})\) shape input(*): *代表任意的维度 output(*): 和输入维度 阅读全文

posted @ 2021-09-13 16:03 foghorn 阅读(183) 评论(0) 推荐(0) |

摘要:1 tensor.clone() 返回原tensor的拷贝,返回的新的tensor和原来的tensor具有同样的大小和数据类型 情况一: 若原tensor的requires_grad = True,clone()返回的是中间节点,梯度会流向原tensor,即返回的tensor的梯度会叠加到原来的te 阅读全文

posted @ 2021-09-10 17:08 foghorn 阅读(657) 评论(0) 推荐(1) |

摘要:默认数据类型 在Pytorch中默认的全局数据类型是float32,用torch.Tensor创建的张量数据类型就是float32 参数 Tensor()如果值传递一个整数,则会生成一个随机的张量: import torch torch.Tensor(1) 输出:tensor([一个随机值]) 如果 阅读全文

posted @ 2021-08-16 21:17 foghorn 阅读(405) 评论(0) 推荐(0) |

摘要:1 import torch 2 import matplotlib.pyplot as plt 3 import os 4 os.environ['KMP_DUPLICATE_LIB_OK'] = 'TRUE' 5 6 lr = 0.001 7 see = 20000 8 x = torch.ra 阅读全文

posted @ 2021-08-16 21:16 foghorn 阅读(65) 评论(0) 推荐(0) |

博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3