摘要: autograd是pytorch构建神经网络的核心。 在 PyTorch 中,结合以下代码例子,当你对一个张量 x 设置 requires_grad=True 时,你实际上是告诉 PyTorch 需要跟踪所有对这个张量的操作以便未来可以计算梯度。当你调用 out.backward() 时,PyTor 阅读全文
posted @ 2025-04-16 23:32 学点技术儿 阅读(95) 评论(0) 推荐(0)
摘要: requires_grad的三种写法以及区分 第一种: x = torch.ones(2,2, requires_grad=True) 第二种: x = torch.ones(2,2) x.requires_grad_=True 第三种: x = torch.ones(2,2) x.requires 阅读全文
posted @ 2025-04-16 21:30 学点技术儿 阅读(126) 评论(0) 推荐(0)
摘要: 在 PyTorch 中,叶子张量(Leaf Tensor)和非叶子张量(Non-Leaf Tensor)是计算图中的两个重要概念: 叶子张量(Leaf Tensor) 叶子张量是计算图中的起始点,它们通常是用户直接创建的张量,并且没有其他张量作为它们的输入。换句话说,叶子张量是那些不需要通过任何计算 阅读全文
posted @ 2025-04-16 17:51 学点技术儿 阅读(103) 评论(0) 推荐(0)
摘要: 下面是一个使用 torchviz 可视化 PyTorch 计算图的示例代码。这个例子中,将创建一个简单的神经网络层,并通过 torchviz 将其计算图可视化。 前提条件: 本地安装graphviz软件: 安装 Graphviz 包:首先,你需要在你的系统上安装 Graphviz 包,而不仅仅是 P 阅读全文
posted @ 2025-04-16 17:33 学点技术儿 阅读(209) 评论(0) 推荐(0)