激活函数

Sigmoid

Tanh

Relu

ReLU提供了一种非常简单的非线性变换。给定元素x,ReLU函数被定义为该元素与0的最大值。

ReLU优点:

  • ReLU解决了梯度消失的问题,当输入值为正时,神经元不会饱和
    *计算复杂度低,不需要进行指数运算

ReLU缺点:

  • 与Sigmoid一样,其输出不是以0为中心的
  • Dead ReLU 问题。当输入为负时,梯度为0。这个神经元及之后的神经元梯度永远为0,不再对任何数据有所响应,导致相应参数永远不会被更新

Leaky Relu

Leaky ReLU优点:

  • 解决了ReLU输入值为负时神经元出现的死亡的问题
  • 计算复杂度低,不需要进行指数运算

Leaky ReLU缺点:

  • 函数中的α,需要通过先验知识人工赋值(一般设为0.01)
  • 有些近似线性,导致在复杂分类中效果不好。

Softmax

Softmax 可以使正样本(正数)的结果趋近于 1,使负样本(负数)的结果趋近于 0;且样本的绝对值越大,两极化越明显。

参考文献:
https://zhuanlan.zhihu.com/p/5616880298
https://blog.csdn.net/weixin_44115575/article/details/139835864

posted @ 2025-04-01 14:58  小舟渡河  阅读(54)  评论(0)    收藏  举报