摘要: Q:为什么神经网络中从输入层到隐含层的权值必须互不相等? 如果权值初始化为相同的值,将会出现什么现象? A:如图: 如果权值初始化是相等的(这句话的意思是hidden layer的每一列上的神经元参数都一致),那么在Back-Propagation的时候,每个神经元获得的update都是一致的,那么 阅读全文
posted @ 2022-03-21 22:02 zzflybird 阅读(1968) 评论(0) 推荐(0)