上一页 1 2 3 4 5 6 7 8 9 10 ··· 48 下一页
摘要: 矩阵运算,例如执行乘法、加法和减法,是任何神经网络中信号传播的重要操作。通常在计算中需要随机矩阵、零矩阵、一矩阵或者单位矩阵。 阅读全文
posted @ 2022-05-17 08:00 青竹之下 阅读(40) 评论(0) 推荐(0)
摘要: TensorFlow 使用 TensorBoard 来提供计算图形的图形图像。这使得理解、调试和优化复杂的神经网络程序变得很方便。TensorBoard 也可以提供有关网络执行的量化指标。它读取 TensorFlow 事件文件,其中包含运行 TensorFlow 会话期间生成的摘要数据。 具体做法 阅读全文
posted @ 2022-05-16 08:00 青竹之下 阅读(52) 评论(0) 推荐(0)
摘要: 速线性代数器(Accelerated linear algebra,XLA)是线性代数领域的专用编译器。根据 https://www.tensorflow.org/performance/xla/,它仍处于实验阶段,用于优化 TensorFlow 计算。XLA 可以提高服务器和移动平台的执行速度、内 阅读全文
posted @ 2022-05-15 08:00 青竹之下 阅读(85) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2022-05-14 08:00 青竹之下 阅读(10) 评论(0) 推荐(0)
摘要: 本节将针对波士顿房价数据集的房间数量(RM)采用简单线性回归,目标是预测在最后一列(MEDV)给出的房价。 波士顿房价数据集可从http://lib.stat.cmu.edu/datasets/boston处获取。 本小节直接从 TensorFlow contrib 数据集加载数据。使用随机梯度下降 阅读全文
posted @ 2022-05-13 08:00 青竹之下 阅读(49) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2022-05-12 08:00 青竹之下 阅读(13) 评论(0) 推荐(0)
摘要: 按照损失函数的负梯度成比例地对系数(W 和 b)进行更新。根据训练样本的大小,有三种梯度下降的变体: Vanilla 梯度下降:在 Vanilla 梯度下降(也称作批梯度下降)中,在每个循环中计算整个训练集的损失函数的梯度。该方法可能很慢并且难以处理非常大的数据集。该方法能保证收敛到凸损失函数的全局 阅读全文
posted @ 2022-05-11 08:00 青竹之下 阅读(190) 评论(0) 推荐(1)
摘要: 导入所需的模块并声明全局变量: 定义一个将文件名作为参数的函数,并返回大小等于 BATCH_SIZE 的张量: 定义 f_queue 和 reader 为文件名: 这里指定要使用的数据以防数据丢失。对 .csv 解码并选择需要的特征。例如,选择 RM、PTRATIO 和 LSTAT 特征: 定义参数 阅读全文
posted @ 2022-05-10 08:00 青竹之下 阅读(50) 评论(0) 推荐(0)
摘要: 在 TensorFlow 实现简单线性回归的基础上,可通过在权重和占位符的声明中稍作修改来对相同的数据进行多元线性回归。在多元线性回归的情况下,由于每个特征具有不同的值范围,归一化变得至关重要。这里是波士顿房价数据集的多重线性回归的代码,使用 13 个输入特征。 波士顿房价数据集可从http://l 阅读全文
posted @ 2022-05-09 08:00 青竹之下 阅读(159) 评论(0) 推荐(0)
摘要: 本节基于回归学习对 MNIST 数据集进行处理,但将添加一些 TensorBoard 总结以便更好地理解 MNIST 数据集。 MNIST由https://www.tensorflow.org/get_started/mnist/beginners提供。 大部分人已经对 MNIST 数据集很熟悉了, 阅读全文
posted @ 2022-05-08 08:00 青竹之下 阅读(64) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 9 10 ··· 48 下一页