摘要: 改进深度学习 梯度消失 ReLU Maxout 自适应学习率 RMSProp Momentum Adam 提前停止 正则化 dropout 阅读全文
posted @ 2020-06-02 20:52 yueqiudian 阅读(879) 评论(0) 推荐(0)