摘要:(1)相较于线性回归,使用激活函数sigmoid函数,将结果以0-1之间呈现 (2)损失函数计算:cross-entropy交叉熵 1 import torch 2 3 #data 4 x_data = torch.Tensor([[1.0], [2.0], [3.0]]) 5 y_data = t 阅读全文
posted @ 2021-04-17 16:07 mioho 阅读(15) 评论(0) 推荐(0) 编辑
摘要:pytorch写神经网络 (1)准备数据集 (2)涉及模型(yheight) (3)构造损失函数和优化器 (4)训练周期(前馈、反馈、更新) 1 import torch 2 3 #1.准备数据 4 x_data=torch.tensor([[1.0],[2.0],[3.0]]) 5 y_data= 阅读全文
posted @ 2021-04-17 13:35 mioho 阅读(12) 评论(0) 推荐(0) 编辑
摘要:B站 PyTorch深度学习实践-反向传播 (1)Tensor包含data 和 gradw.dataw.grad.data:数值计算,不构建计算图。w.grad.item():取出数值。w.grad.data.zero():清零 (2)w是tensor类型,data和grad也是tensor类型,注 阅读全文
posted @ 2021-04-17 13:09 mioho 阅读(1) 评论(0) 推荐(0) 编辑
摘要:B站 《PyTorch深度学习实践》梯度下降法 可能陷入局部最优 1 import numpy as np 2 3 x_data=[1.0,2.0,3.0] 4 y_data=[2.0,4.0,6.0] 5 6 w=1.0 7 8 def forward(x): 9 return x*w 10 11 阅读全文
posted @ 2021-04-15 15:23 mioho 阅读(19) 评论(0) 推荐(0) 编辑
摘要:#课堂代码-线性模型 1 import numpy as np 2 import matplotlib.pyplot as plt 3 4 #y=2x 5 x_data=[1.0,2.0,3.0] 6 y_data=[2.0,4.0,6.0] 7 8 def forward(x): 9 return 阅读全文
posted @ 2021-04-15 15:01 mioho 阅读(12) 评论(0) 推荐(0) 编辑
摘要:hello world miosk 阅读全文
posted @ 2021-04-10 15:18 mioho 阅读(8) 评论(0) 推荐(0) 编辑