摘要:
https://www.cnblogs.com/wj-1314/p/9754072.html 激活函数:常用的激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者ReLU常见于卷积层 在卷积神经网络中,激活函数一般用ReLU(The Rectifi 阅读全文
posted @ 2019-12-05 19:34
末日搭车指南
阅读(224)
评论(0)
推荐(0)
摘要:
https://www.cnblogs.com/wj-1314/p/9754072.html 激活函数:常用的激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者ReLU常见于卷积层 在卷积神经网络中,激活函数一般用ReLU(The Rectifi 阅读全文
posted @ 2019-12-05 19:27
末日搭车指南
阅读(83)
评论(0)
推荐(0)
浙公网安备 33010602011771号