摘要: 计算图和autograd是十分强大的工具,可以定义复杂的操作并自动求导;然而对于大规模的网络,autograd太过于底层。 在构建神经网络时,我们经常考虑将计算安排成层,其中一些具有可学习的参数,它们将在学习过程中进行优化。 TensorFlow里,有类似Keras,TensorFlow-Slim和 阅读全文
posted @ 2020-02-19 16:42 谦谦谦谦谦谦谦谦 阅读(680) 评论(0) 推荐(0) 编辑
摘要: import torchclass MyreLu(torch.autograd.Function): """ 我们可以通过定义torch.autograd的子类来实现我们自定义的autograd函数, 并完成张量的正向反向传播 """ @staticmethod def forward(ctx, x 阅读全文
posted @ 2020-02-19 14:59 谦谦谦谦谦谦谦谦 阅读(481) 评论(0) 推荐(0) 编辑