2021年4月18日
摘要: ctrl+shift+f 阅读全文
posted @ 2021-04-18 21:16 一杯明月 阅读(313) 评论(0) 推荐(0)
摘要: 1. 激活函数Rectified Linear Unit(ReLU) - 用于隐层神经元输出Sigmoid - 用于隐层神经元输出Softmax - 用于多分类神经网络输出Linear - 用于回归神经网络输出(或二分类问题) ReLU函数计算如下: Sigmoid函数计算如下: Softmax函数 阅读全文
posted @ 2021-04-18 21:09 一杯明月 阅读(2306) 评论(0) 推荐(0)