会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
机器鸟的窝
博客园
首页
新随笔
联系
订阅
管理
2019年6月14日
深度神经网络的初始化不应该只做一次
摘要: 深度神经网络的初始化不应该只做一次 读完彩票假设和超级掩模,结合一些强化学习和传统模拟退火算法的经验,有所感悟。 BP过程只是在不断加强初始化时靠运气碰到的那些好的结构/权重组合,而那些可以被掩模删掉的路径呢?如果持续,渐进的再随机初始化,是否能挖掘出新的黑马呢? 自由经济的实践中,这个假设是成立的
阅读全文
posted @ 2019-06-14 11:21 Robird
阅读(163)
评论(0)
推荐(0)
公告