softmax基本概念

Softmax是机器学习中一个非常重要的工具,他可以兼容 logistics 算法、可以独立作为机器学习的模型进行建模训练、还可以作为深度学习的激励函数。

 

softmax的介绍

   

softmax的作用简单的说就计算一组数值中每个值的占比,公式一般性描述为:
设一共有n个用数值表示的分类S_k,k\in(0,n],其中n表示分类的个数。那么softmax计算公式为:
P(S_i)=\frac{e^{g_i}}{\sum_k^ne^{g_k}},i表示k中的某个分类,g_i表示该分类的值

 

 

softmax的例子

 

 

看一个例子能更好的理解softmax。
设有三个数值A=5,B=1,C=-1,那么他们的softmax占比为:
P(A)=\frac{e^5}{e^5+e+e^{-1}}
P(B)=\frac{e}{e^5+e+e^{-1}}
P(C)=\frac{e^{-1}}{e^5+e+e^{-1}}
计算结果为:
P(A)=0.9817,P(B)=0.0180,P(C)=0.0003
P(A)+P(B)+P(C)=1

 

基本特性

从上面的计算结果可以看出softmax的一些特性:

  1. 归一化:最后的合计为1,每一个分类都是一个小于1的数值。
  2. 放大效果:上面的例子中单纯从数值来看,5和1的差距并不大,但是通过指数运算有明显的放大效果,5的占比能到98%以上。
  3. 散列性质,每一个比率虽然最后都会进行归一,但是他们放大之前的数值是可以相互不干扰的。



 

posted on 2020-11-17 14:44  周街街  阅读(479)  评论(0)    收藏  举报