摘要:
损失函数梯度 均方误差函数梯度 均方误差表达式: 梯度导数: 交叉熵函数梯度 Softmax 梯度 回顾 Softmax 函数的表达式: Softmax 梯度为: 交叉熵梯度 考虑交叉熵损失函数的表达式: 将log分解: 最终简化求出: 阅读全文
posted @ 2020-09-30 15:09
kuanleung
阅读(19)
评论(0)
推荐(0)
摘要:
激活函数导数 Sigmoid 函数导数 导数为: S i g m o i d ( 1 − S i g m o i d ) Sigmoid(1 − Sigmoid) Sigmoid(1−Sigmoid) ReLU 函数导数 LeakyReLU函数导数 Tanh 函数梯度 导数为: 1 − t a n 阅读全文
posted @ 2020-09-30 14:54
kuanleung
阅读(13)
评论(0)
推荐(0)

浙公网安备 33010602011771号