摘要:
从一批次所用数据量的角度可以分为:全量梯度下降(batch GD),小批量梯度下降(mini-batch GD),随机梯度下降(SGD,一次只用一个样本计算梯度并更新参数)。batch GD, mini-batch GD, SGD都可以看成SGD的范畴, 只不过区别在于每次取多少的样本了。 从梯度的 阅读全文
posted @ 2020-02-22 23:12
Picassooo
阅读(3051)
评论(0)
推荐(0)
摘要:
torch.linspace torch.linspace(start, end, steps) returns a one-dimensional tensor of equally spaced points between [start, end]。steps默认值是100。 torch.ra 阅读全文
posted @ 2020-02-22 12:57
Picassooo
阅读(462)
评论(0)
推荐(0)

浙公网安备 33010602011771号