摘要:
目录 mini-batch 指数加权平均 优化梯度下降法:momentum、RMSprop、Adam 学习率衰减 局部最优问题 一、mini-batch mini-batch:把训练集划分成小点的子集 为什么用mini-batch:当数据集样本数较多时,需要对整个数据计算完成后才能进行梯度下降,速度 阅读全文
posted @ 2018-04-30 21:15
huapyuan
阅读(1356)
评论(0)
推荐(0)
摘要:
目录 超参数调整 几个超参数范围选择的方法 超参数的实践:pandas VS canviar 正则化激活函数 softmax回归 一、超参数调整 重要性 从高到低:学习率$\alpha$——>$\beta$(0.9)、hidden units、minibatch size——>layers、学习率衰 阅读全文
posted @ 2018-04-30 21:15
huapyuan
阅读(2697)
评论(0)
推荐(0)

浙公网安备 33010602011771号