08 2020 档案
【摘】关于神经网络中relu和sigmoid的选择
摘要:ReLU比Sigmoid效果好的理由: https://blog.csdn.net/ljyljyok/article/details/88394212 Relu的gradient大多数情况下是常数,有助于解决深层网络的收敛问题。Relu的另一个优势是在生物上的合理性,它是单边的,相比sigmoid和 阅读全文
posted @ 2020-08-11 18:07 rin_riceroll 阅读(829) 评论(0) 推荐(0)
[论文补充]自编码器——Learning Robust Auto-Encoders With Regularizer for Linearity and Sparsity
摘要:1.自编码器 2.contractive auto-encoder CAE(收缩自编码器) 1.自编码器 内容来源: https://www.cnblogs.com/klausage/p/12582421.html https://www.baidu.com/link?url=uWT564giDq1 阅读全文
posted @ 2020-08-06 20:43 rin_riceroll 阅读(979) 评论(0) 推荐(0)