摘要: 请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function? - amaze2的回答 - 知乎 https://www.zhihu.com/question/29021768/answer/1321404391 激活函 阅读全文
posted @ 2020-08-04 11:11 一瓶二锅头 阅读(335) 评论(0) 推荐(0)