摘要:
张量的操作主要包括张量的结构操作和张量的数学运算。 张量结构操作诸如:张量创建,索引切片,维度变换,合并分割。 张量数学运算主要有:标量运算,向量运算,矩阵运算。另外我们会介绍张量运算的广播机制。 本篇我们介绍张量的结构操作。 一,创建张量 张量创建的许多方法和numpy中创建array的方法很像。 阅读全文
posted @ 2020-04-10 15:44
西西嘛呦
阅读(693)
评论(0)
推荐(0)
摘要:
下面的范例使用TensorFlow的高阶API实现线性回归模型。 TensorFlow的高阶API主要为tf.keras.models提供的模型的类接口。 使用Keras接口有以下3种方式构建模型:使用Sequential按层顺序构建模型,使用函数式API构建任意结构模型,继承Model基类构建自定 阅读全文
posted @ 2020-04-10 15:42
西西嘛呦
阅读(1739)
评论(0)
推荐(1)
摘要:
下面的范例使用TensorFlow的中阶API实现线性回归模型。 TensorFlow的中阶API主要包括各种模型层,损失函数,优化器,数据管道,特征列等等。 import tensorflow as tf from tensorflow.keras import layers,losses,met 阅读全文
posted @ 2020-04-10 15:36
西西嘛呦
阅读(1014)
评论(3)
推荐(0)
摘要:
下面的范例使用TensorFlow的低阶API实现线性回归模型。 低阶API主要包括张量操作,计算图和自动微分。 import tensorflow as tf # 打印时间分割线 @tf.function def printbar(): ts = tf.timestamp() today_ts = 阅读全文
posted @ 2020-04-10 15:21
西西嘛呦
阅读(416)
评论(0)
推荐(0)
摘要:
神经网络通常依赖反向传播求梯度来更新网络参数,求梯度过程通常是一件非常复杂而容易出错的事情。 而深度学习框架可以帮助我们自动地完成这种求梯度运算。 Tensorflow一般使用梯度磁带tf.GradientTape来记录正向运算过程,然后反播磁带自动得到梯度值。 这种利用tf.GradientTap 阅读全文
posted @ 2020-04-10 14:28
西西嘛呦
阅读(918)
评论(0)
推荐(0)
摘要:
有三种计算图的构建方式:静态计算图,动态计算图,以及Autograph. 在TensorFlow1.0时代,采用的是静态计算图,需要先使用TensorFlow的各种算子创建计算图,然后再开启一个会话Session,显式执行计算图。 而在TensorFlow2.0时代,采用的是动态计算图,即每使用一个 阅读全文
posted @ 2020-04-10 14:12
西西嘛呦
阅读(3257)
评论(0)
推荐(1)
摘要:
程序 = 数据结构+算法。 TensorFlow程序 = 张量数据结构 + 计算图算法语言 张量和计算图是 TensorFlow的核心概念。 Tensorflow的基本数据结构是张量Tensor。张量即多维数组。Tensorflow的张量和numpy中的array很类似。 从行为特性来看,有两种类型 阅读全文
posted @ 2020-04-10 11:01
西西嘛呦
阅读(580)
评论(0)
推荐(0)

浙公网安备 33010602011771号