摘要: FFDNet matlab 调用并批处理 Adam不会让你的学习速率降为0,因为它是leaky gradient; 如果使用的是Adagrad, 学习率最后会自动的下降为0。 集成学习 1. 对训练集中大量独立的模型进行训练,而不仅仅对于单一模型; 2.在测试的时候将结果进行平均。(效果可以提高2% 阅读全文
posted @ 2019-03-25 21:37 陈柯成 阅读(350) 评论(0) 推荐(0) 编辑