摘要:
随机初始化权重非常重要,对于logistic回归,可以将权重初始化为0。但如果将神经网络的各个参数数组全部初始化为0,再使用梯度下降算法,那会完全无效 如果就你有2个输入特征,所以n[0] = 2,然后有2个隐藏单元,n[1] = 2,所以和隐藏层相关的矩阵w[1]是2*2的矩阵,假如全部初始化为0 阅读全文
posted @ 2018-08-29 18:12
暖黄的秘密的心情
阅读(681)
评论(0)
推荐(0)
摘要:
单层神经网络的参数:w[1] ,b[1] ,w[2] ,b[2] 以及还包括n[0]个输入特征,n[1]个隐藏单元,n[2]个输出单元 矩阵w[1]的维度是( n[1],n[0] ), b[1]的维度是( n[1],1 ),w[2]的维度是( n[2],n[1] ),b[2]的维度是( n[2],1 阅读全文
posted @ 2018-08-29 17:26
暖黄的秘密的心情
阅读(843)
评论(0)
推荐(0)
摘要:
这是神经网络正向传播方程,为什么不能直接使a[1] = z[1] , a[2] = z[2] ,即 g ( z ) = z 这是因为他们直接把输入值输出了 为了说明问题,若a[2] = z[2 这个模型的输出y或y帽不过是你输入特征x的线性组合 a[1] = z[1] = w[1]x + b[1] 阅读全文
posted @ 2018-08-29 11:46
暖黄的秘密的心情
阅读(2676)
评论(0)
推荐(0)
摘要:
tanh(z) = (ez - e-z ) / ( ez + e-z ) tanh函数几乎在所有场合都更优越 用σ激活函数的一个例外场合是:使用二元分类的时候。因为二元分类问题概率数值应在(0,1)之间 因此可以在隐藏层用tanh函数,在输出层y帽计算时用σ函数 现在σ函数和tanh函数都有一个缺点 阅读全文
posted @ 2018-08-29 10:50
暖黄的秘密的心情
阅读(808)
评论(0)
推荐(0)