摘要:
https://blog.csdn.net/xiaotao_1/article/details/78874336 如果learning rate很大,算法会在局部最优点附近来回跳动,不会收敛; 如果learning rate太小,算法每步的移动距离很短,就会导致算法收敛速度很慢。 所以我们可以先设置 阅读全文
posted @ 2019-01-07 19:08
mydddfly
阅读(989)
评论(0)
推荐(0)
摘要:
import mxnet as mximport numpy as npimport randomimport mxnet as mximport sysdata_shape = {'data':(60000, 1,28, 28)}data = mx.sym.var('data')pool0 = m 阅读全文
posted @ 2019-01-07 17:34
mydddfly
阅读(758)
评论(0)
推荐(0)
摘要:
http://www.sohu.com/a/241298990_129720 本文是一篇关于深度学习优化方法——梯度下降的介绍性文章。作者通过长长的博文,简单介绍了梯度下降的概念、优势以及两大挑战。文中还配有大量生动形象的三维图像,有兴趣的亲了解一下? 从很大程度上来说,深度学习实际上是在解决大量烦 阅读全文
posted @ 2019-01-07 15:18
mydddfly
阅读(525)
评论(0)
推荐(0)
摘要:
https://www.cnblogs.com/alexYuin/p/7039234.html # 概念 LMS(least mean square):(最小均方法)通过最小化均方误差来求最佳参数的方法。 GD(gradient descent) : (梯度下降法)一种参数更新法则。可以作为LMS的 阅读全文
posted @ 2019-01-07 14:33
mydddfly
阅读(689)
评论(0)
推荐(0)
摘要:
https://www.cnblogs.com/HongjianChen/p/8718988.html 梯度算法之梯度上升和梯度下降 方向导数 当讨论函数沿任意方向的变化率时,也就引出了方向导数的定义,即:某一点在某一趋近方向上的导数值。 导数和偏导数的定义中,均是沿坐标轴正方向讨论函数的变化率。那 阅读全文
posted @ 2019-01-07 14:32
mydddfly
阅读(1978)
评论(0)
推荐(0)
该文被密码保护。 阅读全文
posted @ 2019-01-07 11:11
mydddfly
阅读(0)
评论(0)
推荐(0)