pytorch——反向传播2

#模型为w1*x*x+w2*x+b

import torch
x_data=[1,2,3]
y_data=[2,4,6]

#三个tensor
w1=torch.tensor([1.0])
w1.requires_grad=True
w2=torch.tensor([2.0])
w2.requires_grad=True
b=torch.tensor([1.0])
b.requires_grad=True

def forward(x):
return w1*x*x+w2*x+b

def loss(x, y):
y_pred = forward(x)
return (y_pred - y) * (y_pred - y)

print("训练之前",4,forward(4).item())
#训练过程
for epoch in range(100):
for x,y in zip(x_data,y_data): #x_datay_data整理成一个样本(xy
l=loss(x,y) #前馈计算,并计算出损失值,张量
l.backward() #后向计算,自动把计算图中需要梯度的地方求出,存到tensorw中,释放计算图,下次进行loss计算时,在准备下一次的计算图
print('grad:',x,y,w1.grad.item(),w2.grad.item())
w1.data=w1.data-w1.grad.data*0.01 #张量loss中包含tensor类型的datagrad,要获得梯度(数值),而w.grad计算图,需要w.grad.data数值
w1.grad.data.zero_()
w2.data = w2.data - w2.grad.data * 0.01 # 张量loss中包含tensor类型的datagrad,要获得梯度(数值),而w.grad计算图,需要w.grad.data数值
w2.grad.data.zero_()
b.data = b.data - b.grad.data * 0.01 # 张量loss中包含tensor类型的datagrad,要获得梯度(数值),而w.grad计算图,需要w.grad.data数值
b.grad.data.zero_()
print("progress",epoch,l)
print("训练之后",4,forward(4).item())
posted @ 2022-02-04 11:05  wxrdml  阅读(352)  评论(0编辑  收藏  举报