摘要:
1、激励函数的作用 不使用激励函数的话,神经网络的每层都只是做线性变换,多层输入叠加后也还是线性变换。因为线性模型的表达能力不够,激励函数可以引入非线性因素。 2、Torch中的激励函数 阅读全文
posted @ 2019-06-14 17:27
funnything
阅读(325)
评论(0)
推荐(0)
摘要:
Variable和Tensor 发现tensor和variable输出的形式是一样的,在新版本的torch中可以直接使用tensor而不需要使用variable。 在旧版本中variable和tensor的区别在于,variable可以进行误差的反向传播,而tensor不可以。 接下来看一下,合并T 阅读全文
posted @ 2019-06-14 11:47
funnything
阅读(5097)
评论(0)
推荐(2)

浙公网安备 33010602011771号