随笔分类 -  tensorflow

深度学习-tensorflow学习笔记(2)-MNIST手写字体识别
摘要:深度学习-tensorflow学习笔记(2)-MNIST手写字体识别超级详细版 这是tf入门的第一个例子。minst应该是内置的数据集。 前置知识在学习笔记(1)里面讲过了 这里直接上代码 打印结果如下 第一个是训练集的特征值和标签,第二个是测试集,第三个是验证集 MNIST数据集的特征值是28*2 阅读全文

posted @ 2018-06-09 15:30 邓佳程 阅读(638) 评论(0) 推荐(0)

tensorflow学习笔记(4)-学习率
摘要:tensorflow学习笔记(4)-学习率 首先学习率如下图 所以在实际运用中我们会使用指数衰减的学习率 在tf中有这样一个函数 首先看下它的数学表达式:decayed_learing_rate=learing_rate*decay_rate^(gloabl_steps/decay_steps) 如 阅读全文

posted @ 2018-05-27 12:20 邓佳程 阅读(922) 评论(0) 推荐(0)

tensorflow学习笔记(3)前置数学知识
摘要:tensorflow学习笔记(3)前置数学知识 首先是神经元的模型 接下来是激励函数 神经网络的复杂度计算 层数:隐藏层+输出层 总参数=总的w+b 下图为2层 如下图 w为3*4+4个 b为4*2+2 接下来是损失函数 主流的有均分误差,交叉熵,以及自定义 这里贴上课程里面的代码 自定义损失函数 阅读全文

posted @ 2018-05-26 23:37 邓佳程 阅读(568) 评论(0) 推荐(0)

tensorflow学习笔记(2)-反向传播
摘要:tensorflow学习笔记(2)-反向传播 反向传播是为了训练模型参数,在所有参数上使用梯度下降,让NN模型在的损失函数最小 损失函数:学过机器学习logistic回归都知道损失函数-就是预测值和真实值得差距,比如sigmod或者cross-entropy 均方误差:tf.reduce_mean( 阅读全文

posted @ 2018-05-26 22:24 邓佳程 阅读(947) 评论(0) 推荐(0)

tensorflow学习笔记(1)-基本语法和前向传播
摘要:tensorflow学习笔记(1) (1)tf中的图 图中就是一个计算图,一个计算过程。 图中的constant是个常量 计算图只描述过程,不执行。 (2)tf中的会话 那么怎么计算呢? tensorflow有个会话是专门用来计算的 这里定义了个矩阵相乘的运算,并用会话结构 with tf.sess 阅读全文

posted @ 2018-05-26 19:52 邓佳程 阅读(270) 评论(0) 推荐(0)

导航