摘要: 深度神经网络的初始化不应该只做一次 读完彩票假设和超级掩模,结合一些强化学习和传统模拟退火算法的经验,有所感悟。 BP过程只是在不断加强初始化时靠运气碰到的那些好的结构/权重组合,而那些可以被掩模删掉的路径呢?如果持续,渐进的再随机初始化,是否能挖掘出新的黑马呢? 自由经济的实践中,这个假设是成立的 阅读全文
posted @ 2019-06-14 11:21 Robird 阅读(163) 评论(0) 推荐(0)