摘要:        
神经网络反向传播更新原理 一、总结 一句话总结: A、输入x (w1和b2)-->中间输出h(省略很多层) (wi和bi)-->输出y-->loss函数 B、现在的需求是loss取最小值,可以求出loss对所有参数的梯度,让沿梯度下降的方向更新参数,例如w1= w1-lr*∂(loss)/∂(w1)    阅读全文
posted @ 2020-08-05 11:04
范仁义
阅读(492)
评论(0)
推荐(0)
        
            
        
        
摘要:        
TensorFlow2_200729系列 17、函数用梯度下降法求最值实例 一、总结 一句话总结: 从不同的初始点梯度下降,找到的极值点不一样 import numpy as np from mpl_toolkits.mplot3d import Axes3D from matplotlib imp    阅读全文
posted @ 2020-08-05 02:41
范仁义
阅读(459)
评论(0)
推荐(0)
        
 
    
 
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号