10 2017 档案
摘要:其实反向传播算法从公式 上来看,损失C对W的权重有两部分,一部分是第一项,激活函数Z对W的偏导数(a), 此项其实就是前向传播,另一个是第二项,C对激活函数Z的偏导数,此项就是反向传播。 而a实际上是当前这个神经元的输入。 数学推导部分,重点说明权值矩阵在反向传播是是乘以W的转置 欢迎转载,但需要注
阅读全文
摘要:深度剖析Feature Scaling背后的原理
阅读全文
摘要:这个问题需要从熵谈起, 根据香浓理论,熵是描述信息量的一种度量,如果某一事件发生的概率越小,也就是不确定性越大,那么熵就越大,或者说是信息量越大。 比如说,我们现实生活中,经常会有这样的场景,比如明星某薛,平时在我们这些吃瓜群众面前是一个人品极高,形象特别好,没有任何负面新闻,迷妹也是一波一波的。b
阅读全文

浙公网安备 33010602011771号