摘要: 吴恩达第2课第2周编程习题 目标:使用mini—batch来加快学习速度;比较梯度下降,momentum,adam的效果 核心:指数加权平均值得计算及其意义,它是momentum,RMSProp,Adam算法的基石 不足:本例程没有使用学习率衰减的步骤,同时本例程只适于3层的二分法的神经网络 常记点: 1. 偏差修正时是除以,此处是-,t从1开始; 2. L=len(parameters) //2... 阅读全文
posted @ 2018-07-24 23:27 天字三号房 阅读(297) 评论(0) 推荐(0) 编辑