摘要:
更新网络参数 更新参数最简单的算法就是SGE(随机梯度下降) 具体的算法公式表达式为:weight=weight-learning_rate*gradient import torch.optim as optiom # 构建优化器optiomizer=optiom.SGD(net.paramete
阅读全文
posted @ 2021-05-18 22:29
Jacob硕
阅读(54)
推荐(0)
摘要:
构建PyTorch神经网络的基本流程和实现过程; 关于torch.nn: 使用Pytorch来构建神经网络,主要的工具都在torch.nn包中 nn依赖于autgrad来定义模型,并对其自动求导 构架神经网络的典型流程: 定义一个拥有可学习参数的神经网络 遍历训练数据集 处理输入数据使其流经神经网络
阅读全文
posted @ 2021-05-18 18:53
Jacob硕
阅读(122)
推荐(0)
摘要:
在PyTorch中,反向传播是依靠.backward()实现的。 关于自动求导的属性设置:可以通过设置.requires_grad=Ture来执行自动求导,通过代码块的限制来停止自动求导。 也可以通过.detach()获得一个新的Tensor,拥有相同的内容但不需要自动求导。 import torc
阅读全文
posted @ 2021-05-12 17:16
Jacob硕
阅读(64)
推荐(0)
摘要:
在整个PyTorch框架中,所有的神经网络本质上都是一个outograd package(自动求导工具包) autograd package提供了一个对Tensors上所有的操作进行自动微分的功能。 关于torch.Tensor torch.Tensor 是整个package中的核心类,如果将属性.
阅读全文
posted @ 2021-05-12 16:29
Jacob硕
阅读(208)
推荐(0)
摘要:
关于Torch Tensor 和 Numpy array之间的转换 Torch Tenser和Numpy array共享底层的内存空间,因此改变其中一个的值,另一个也会随之被改变。 Torch Tensor 转 Numpy array a=torch.ones(5)print(a)b=a.numpy
阅读全文
posted @ 2021-05-12 14:20
Jacob硕
阅读(83)
推荐(0)
摘要:
1.对比无初始化的矩阵,当声明一个未初始化的矩阵时,它本身不包含任何确切的值。当创建一个未初始化的矩阵时,分配给矩阵的内存中有什么数值就赋值给这个矩阵,本质是毫无意义的数据。 from __future__ import print_functionimport torch# 创建一个没有初始化的矩
阅读全文
posted @ 2021-05-12 13:30
Jacob硕
阅读(84)
推荐(0)
摘要:
恢复内容开始 # 时间分为3中格式:# 1.时间戳:从1970年到现在经过的秒数# 作用 用于时间间隔的计算print(time.time())# 2.按照某种格式显示的时间:2020-01-30 11:11:11# 作用:用于展示时间print(time.strftime('%Y-%m-%d %H
阅读全文
posted @ 2021-04-16 19:14
Jacob硕
阅读(44)
推荐(0)