2022年6月13日

深度学习实践4(Tensor相关)

摘要: 注意: 1、w是Tensor,Tensor中包含data和grad,data和grad也是Tensor。grad初始为None,调用l.backward()方法后w.grad为Tensor,故更新w.data时需使用w.grad.data。 2、w是Tensor, forward函数的返回值也是Te 阅读全文

posted @ 2022-06-13 11:21 zc-DN 阅读(79) 评论(0) 推荐(0)

深度学习实践5 (pytorch相关API)

摘要: PyTorch Fashion(风格) 1、prepare dataset 2、design model using Class # 目的是为了前向传播forward,即计算y-hat(预测值) 3、Construct loss and optimizer (using PyTorch API) 其 阅读全文

posted @ 2022-06-13 11:21 zc-DN 阅读(41) 评论(0) 推荐(0)

深度学习实践3

摘要: 这次利用随机梯度下降,随机梯度下降法在神经网络中被证明是有效的。效率较低(时间复杂度较高),学习性能较好。 随机梯度下降和梯度下降相比区别在于: 1、损失函数由cost()更改为loss()。cost是计算所有训练数据的损失,loss是计算一个训练函数的损失。 2、梯度函数gradient()由计算 阅读全文

posted @ 2022-06-13 11:21 zc-DN 阅读(33) 评论(0) 推荐(0)

深度学习实践2

摘要: 简单的单变量线性回归,利用机器学习中学习过的梯度下降即可import matplotlib.pyplot as plt# prepare the training setx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]# initial guess o 阅读全文

posted @ 2022-06-13 10:38 zc-DN 阅读(26) 评论(0) 推荐(0)

导航