摘要:        
人工智能数学参考 8、常用激活函数 一、总结 一句话总结: Sigmoid函数:f(z)=1/(1+e^(-z)) tanh函数:tanh(x)=e^x-e^(-x)/(e^x+e^(-x)) Relu函数:Relu = max(0,x) MaxOut函数: 1、什么是信息熵? 1、熵表示物体内部的    阅读全文
posted @ 2020-06-29 06:42
范仁义
阅读(339)
评论(0)
推荐(0)
        
            
        
        
摘要:        
常用激活函数(激励函数)理解与总结 一、总结 一句话总结: Sigmoid函数:f(z)=1/(1+e^(-z)) tanh函数:tanh(x)=e^x-e^(-x)/(e^x+e^(-x)) Relu函数:Relu = max(0,x) MaxOut函数: 1、Sigmoid函数 f(z)=1/(    阅读全文
posted @ 2020-06-29 06:01
范仁义
阅读(815)
评论(0)
推荐(0)
        
            
        
        
摘要:        
一看就懂的信息熵 一、总结 一句话总结: H(X)=- ∑ P(x)logP(x) 1、信息的大小跟随机事件的概率 的关系? 信息的大小跟随机事件的概率有关。越小概率的事情发生了产生的信息量越大,如湖南产生 的地震了;越大概率的事情发生了产生的信息量越小,如太阳从东边升起来了(肯定发生嘛,没什么信息    阅读全文
posted @ 2020-06-29 04:02
范仁义
阅读(846)
评论(0)
推荐(0)
        
            
        
        
摘要:        
人工智能数学参考 7、核函数应用 一、总结 一句话总结: 一些低维很难解决的问题,切换到高维,可能会很简单 1、泊松分布 思想? 泊松分布就是把时间段分细,用二次分布来计算每个时间段事情是否发生,然后求极限就会得到泊松分布的式子 P(N(t)=n) = (λt)^n*e^(-λt)/n! 2、泊松分    阅读全文
posted @ 2020-06-29 00:45
范仁义
阅读(427)
评论(0)
推荐(0)
        
            
        
        
摘要:        
核函数是什么 一、总结 一句话总结: 假设函数Ф是一个从低维特征空间到高维特征空间的一个映射,那么如果存在函数K(x,z), 对于任意的低维特征向量x和z,都有:K(x,z)=θ(x)*θ(z),称函数K(x,z)为核函数(kernal function) 1、核函数在解决线性不可分问题的时候,采取    阅读全文
posted @ 2020-06-29 00:16
范仁义
阅读(3684)
评论(0)
推荐(0)
        
 
    
 
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号