Loading

摘要: 梯度消失 本层的神经元的激活等于上一层神经元对应的权值进行加权和运算, 最后通过一个非线性函数(激活函数)如ReLu,sigmoid... 阅读全文
posted @ 2019-09-28 20:40 AomanHao 阅读(34) 评论(0) 推荐(0)
摘要: 每个特征变量可以首先映射到⼀一个函数,然后再参与线性计算,模型如下: ... 阅读全文
posted @ 2019-09-28 20:37 AomanHao 阅读(12) 评论(0) 推荐(0)