摘要:
小技巧 drop out 基本原理 drop out是训练神经网络的一种技巧,最先在Alexnet中使用。其具体操作为:在神经网络的训练阶段,以一定的概率让隐层神经元无效,即输出为0。下一轮迭代中,重复上述操作。 从结果上看,其达到了正则的效果, 减少了网络的参数,使得网络更好训练 相当于同时训练了 阅读全文
摘要:
pytorch 常见错误 RuntimeError: a leaf Variable that requires grad is being used in an in-place operation. 如下程序会抱上述错误 x=torch.randn(3,requires_grad=True) x 阅读全文