摘要:
只有一个隐藏层的神经网络: 隐藏层的含义是:在训练集中,这些中间节点的真正数值我们是不知道的,在训练集你看不到他们的数值。你只能看到输入值,也能看见输出值。这就是所谓的“隐藏层” 之前我们用向量x表示输入特征,输入特征的数值还有另外一种表示方式,用a[0]来表示,这个a也表示“激活的意思”,它意味着 阅读全文
posted @ 2018-08-27 18:10
暖黄的秘密的心情
阅读(518)
评论(0)
推荐(0)
摘要:
56.0 0.0 4.4 68.0 A = 1.2 104.0 52.0 8.0 1.8 135.0 99.0 0.9 对矩阵A进行每一列竖直方向的求和: cal = A.sum( axis = 0 ) 0代表列,1代表行,故: 对矩阵A进行每一列竖直方向的求和: cal = A.sum( axis 阅读全文
posted @ 2018-08-27 16:38
暖黄的秘密的心情
阅读(115)
评论(0)
推荐(0)
摘要:
Z = wTx + b a = σ (z) = 1 / ( 1 + e-z ) L ( a , y ) = —( y log(a) + ( 1 - y ) log(1-a) ) dz(i) = a(i) - y(i) dw = xdz db = dz 如何向量化计算m个训练数据的梯度: 梯度计算时d 阅读全文
posted @ 2018-08-27 16:06
暖黄的秘密的心情
阅读(282)
评论(0)
推荐(0)