Jacob硕

导航

 

2021年5月18日

摘要: 更新网络参数 更新参数最简单的算法就是SGE(随机梯度下降) 具体的算法公式表达式为:weight=weight-learning_rate*gradient import torch.optim as optiom # 构建优化器optiomizer=optiom.SGD(net.paramete 阅读全文
posted @ 2021-05-18 22:29 Jacob硕 阅读(54) 评论(0) 推荐(0)
 
摘要: 构建PyTorch神经网络的基本流程和实现过程; 关于torch.nn: 使用Pytorch来构建神经网络,主要的工具都在torch.nn包中 nn依赖于autgrad来定义模型,并对其自动求导 构架神经网络的典型流程: 定义一个拥有可学习参数的神经网络 遍历训练数据集 处理输入数据使其流经神经网络 阅读全文
posted @ 2021-05-18 18:53 Jacob硕 阅读(122) 评论(0) 推荐(0)
 

2021年5月12日

摘要: 在PyTorch中,反向传播是依靠.backward()实现的。 关于自动求导的属性设置:可以通过设置.requires_grad=Ture来执行自动求导,通过代码块的限制来停止自动求导。 也可以通过.detach()获得一个新的Tensor,拥有相同的内容但不需要自动求导。 import torc 阅读全文
posted @ 2021-05-12 17:16 Jacob硕 阅读(64) 评论(0) 推荐(0)
 
摘要: 在整个PyTorch框架中,所有的神经网络本质上都是一个outograd package(自动求导工具包) autograd package提供了一个对Tensors上所有的操作进行自动微分的功能。 关于torch.Tensor torch.Tensor 是整个package中的核心类,如果将属性. 阅读全文
posted @ 2021-05-12 16:29 Jacob硕 阅读(208) 评论(0) 推荐(0)
 
摘要: 关于Torch Tensor 和 Numpy array之间的转换 Torch Tenser和Numpy array共享底层的内存空间,因此改变其中一个的值,另一个也会随之被改变。 Torch Tensor 转 Numpy array a=torch.ones(5)print(a)b=a.numpy 阅读全文
posted @ 2021-05-12 14:20 Jacob硕 阅读(83) 评论(0) 推荐(0)
 
摘要: 1.对比无初始化的矩阵,当声明一个未初始化的矩阵时,它本身不包含任何确切的值。当创建一个未初始化的矩阵时,分配给矩阵的内存中有什么数值就赋值给这个矩阵,本质是毫无意义的数据。 from __future__ import print_functionimport torch# 创建一个没有初始化的矩 阅读全文
posted @ 2021-05-12 13:30 Jacob硕 阅读(84) 评论(0) 推荐(0)
 

2021年4月16日

摘要: 恢复内容开始 # 时间分为3中格式:# 1.时间戳:从1970年到现在经过的秒数# 作用 用于时间间隔的计算print(time.time())# 2.按照某种格式显示的时间:2020-01-30 11:11:11# 作用:用于展示时间print(time.strftime('%Y-%m-%d %H 阅读全文
posted @ 2021-04-16 19:14 Jacob硕 阅读(44) 评论(0) 推荐(0)
 
 
点击右上角即可分享
微信分享提示