【摘】关于神经网络中relu和sigmoid的选择
摘要:ReLU比Sigmoid效果好的理由: https://blog.csdn.net/ljyljyok/article/details/88394212 Relu的gradient大多数情况下是常数,有助于解决深层网络的收敛问题。Relu的另一个优势是在生物上的合理性,它是单边的,相比sigmoid和
阅读全文
posted @
2020-08-11 18:07
rin_riceroll
阅读(829)
推荐(0)
[论文补充]自编码器——Learning Robust Auto-Encoders With Regularizer for Linearity and Sparsity
摘要:1.自编码器 2.contractive auto-encoder CAE(收缩自编码器) 1.自编码器 内容来源: https://www.cnblogs.com/klausage/p/12582421.html https://www.baidu.com/link?url=uWT564giDq1
阅读全文
posted @
2020-08-06 20:43
rin_riceroll
阅读(979)
推荐(0)