摘要:
autograd是pytorch构建神经网络的核心。 在 PyTorch 中,结合以下代码例子,当你对一个张量 x 设置 requires_grad=True 时,你实际上是告诉 PyTorch 需要跟踪所有对这个张量的操作以便未来可以计算梯度。当你调用 out.backward() 时,PyTor 阅读全文
posted @ 2025-04-16 23:32
学点技术儿
阅读(95)
评论(0)
推荐(0)
摘要:
requires_grad的三种写法以及区分 第一种: x = torch.ones(2,2, requires_grad=True) 第二种: x = torch.ones(2,2) x.requires_grad_=True 第三种: x = torch.ones(2,2) x.requires 阅读全文
posted @ 2025-04-16 21:30
学点技术儿
阅读(126)
评论(0)
推荐(0)
摘要:
在 PyTorch 中,叶子张量(Leaf Tensor)和非叶子张量(Non-Leaf Tensor)是计算图中的两个重要概念: 叶子张量(Leaf Tensor) 叶子张量是计算图中的起始点,它们通常是用户直接创建的张量,并且没有其他张量作为它们的输入。换句话说,叶子张量是那些不需要通过任何计算 阅读全文
posted @ 2025-04-16 17:51
学点技术儿
阅读(103)
评论(0)
推荐(0)
摘要:
下面是一个使用 torchviz 可视化 PyTorch 计算图的示例代码。这个例子中,将创建一个简单的神经网络层,并通过 torchviz 将其计算图可视化。 前提条件: 本地安装graphviz软件: 安装 Graphviz 包:首先,你需要在你的系统上安装 Graphviz 包,而不仅仅是 P 阅读全文
posted @ 2025-04-16 17:33
学点技术儿
阅读(209)
评论(0)
推荐(0)
浙公网安备 33010602011771号