我的github
摘要: 我一直以为两者是相同的。。。原来SGD是一阶梯度,而牛顿迭代法是二阶梯度。 SGD(Stochastic Gradient Descent,随机梯度下降法)和New-ton Method(牛顿迭代法) 梯度下降法,牛顿法,高斯-牛顿迭代法,附代码实现:https://blog.csdn.net/pi 阅读全文
posted @ 2018-04-16 19:03 XiaoNiuFeiTian 阅读(2880) 评论(0) 推荐(0)