摘要:
ctrl+shift+f 阅读全文
posted @ 2021-04-18 21:16
一杯明月
阅读(313)
评论(0)
推荐(0)
摘要:
1. 激活函数Rectified Linear Unit(ReLU) - 用于隐层神经元输出Sigmoid - 用于隐层神经元输出Softmax - 用于多分类神经网络输出Linear - 用于回归神经网络输出(或二分类问题) ReLU函数计算如下: Sigmoid函数计算如下: Softmax函数 阅读全文
posted @ 2021-04-18 21:09
一杯明月
阅读(2306)
评论(0)
推荐(0)
浙公网安备 33010602011771号