2018年10月3日

吴恩达深度学习笔记(五) —— 优化算法:Mini-Batch GD、Momentum、RMSprop、Adam、学习率衰减

摘要: 主要内容: 一.Mini-Batch Gradient descent 二.Momentum 四.RMSprop 五.Adam 六.优化算法性能比较 七.学习率衰减 一.Mini-Batch Gradient descent 1.一般地,有三种梯度下降算法: 1)(Batch )Gradient D 阅读全文

posted @ 2018-10-03 20:50 h_z_cong 阅读(1589) 评论(0) 推荐(0) 编辑

导航