摘要: 调参技巧 层叠LSTM的层时 尽量保持两个隐藏层个数一致 收敛的快的多 两层LSTM比一层好很多 激活函数很重要 relu通常效果比较好 "激活函数使用笔记" "激活函数介绍" 学习率太大(0.02),记得要是0.001数量级的学习率,否则直接不收敛,因此学习率不要太大,越小越好 正则化参数 L1正 阅读全文
posted @ 2019-10-09 18:27 FromZeroToOne 阅读(2074) 评论(0) 推荐(0) 编辑