摘要:        
TensorFlow2_200729系列 2、梯度下降求简单线性回归原理 一、总结 一句话总结: 就是根据loss函数,对w和b求梯度(偏导),也就是w'=w-lr*∂ loss/∂ w ,b'=b-lr*∂ loss/∂ b 1、为什么求梯度是对loss函数求的梯度(w'=w-lr*∂ loss/    阅读全文
posted @ 2020-07-29 13:07
范仁义
阅读(204)
评论(0)
推荐(0)
        
            
        
        
摘要:        
TensorFlow2_200729系列 1、TensorFlow2自动求导实例 一、总结 一句话总结: 用tf.GradientTape():[dy_da,dy_db,dy_dc] = tape.gradient(y, [a,b,c]) import tensorflow as tf # 创建4个    阅读全文
posted @ 2020-07-29 07:41
范仁义
阅读(182)
评论(0)
推荐(0)
        
            
        
        
摘要:        
Tensorflow函数式API的使用 一、总结 一句话总结: I、在我们使用tensorflow时,如果不能使用函数式api进行编程,那么一些复杂的神经网络结构就不会实现出来,只能使用简单的单向模型进行一层一层地堆叠。 II、如果稍微复杂一点,遇到了Resnet这种带有残差模块的神经网络,那么用简    阅读全文
posted @ 2020-07-29 06:07
范仁义
阅读(261)
评论(0)
推荐(0)
        
            
        
        
摘要:        
tensorflow2知识总结 8、函数式API 一、总结 一句话总结: tensorflow2函数式API是可以非常方便的构建出复杂的神经网络,比如多输入多输出类型的 input=keras.Input(shape=(28,28)) x=keras.layers.Flatten()(input)     阅读全文
posted @ 2020-07-29 06:05
范仁义
阅读(450)
评论(0)
推荐(0)
        
 
    
 
 浙公网安备 33010602011771号
浙公网安备 33010602011771号