微信扫一扫打赏支持
摘要: TensorFlow2_200729系列 2、梯度下降求简单线性回归原理 一、总结 一句话总结: 就是根据loss函数,对w和b求梯度(偏导),也就是w'=w-lr*∂ loss/∂ w ,b'=b-lr*∂ loss/∂ b 1、为什么求梯度是对loss函数求的梯度(w'=w-lr*∂ loss/ 阅读全文
posted @ 2020-07-29 13:07 范仁义 阅读(204) 评论(0) 推荐(0)
摘要: TensorFlow2_200729系列 1、TensorFlow2自动求导实例 一、总结 一句话总结: 用tf.GradientTape():[dy_da,dy_db,dy_dc] = tape.gradient(y, [a,b,c]) import tensorflow as tf # 创建4个 阅读全文
posted @ 2020-07-29 07:41 范仁义 阅读(182) 评论(0) 推荐(0)
摘要: Tensorflow函数式API的使用 一、总结 一句话总结: I、在我们使用tensorflow时,如果不能使用函数式api进行编程,那么一些复杂的神经网络结构就不会实现出来,只能使用简单的单向模型进行一层一层地堆叠。 II、如果稍微复杂一点,遇到了Resnet这种带有残差模块的神经网络,那么用简 阅读全文
posted @ 2020-07-29 06:07 范仁义 阅读(261) 评论(0) 推荐(0)
摘要: tensorflow2知识总结 8、函数式API 一、总结 一句话总结: tensorflow2函数式API是可以非常方便的构建出复杂的神经网络,比如多输入多输出类型的 input=keras.Input(shape=(28,28)) x=keras.layers.Flatten()(input) 阅读全文
posted @ 2020-07-29 06:05 范仁义 阅读(450) 评论(0) 推荐(0)