2018年5月26日

tensorflow学习笔记(3)前置数学知识

摘要: tensorflow学习笔记(3)前置数学知识 首先是神经元的模型 接下来是激励函数 神经网络的复杂度计算 层数:隐藏层+输出层 总参数=总的w+b 下图为2层 如下图 w为3*4+4个 b为4*2+2 接下来是损失函数 主流的有均分误差,交叉熵,以及自定义 这里贴上课程里面的代码 自定义损失函数 阅读全文

posted @ 2018-05-26 23:37 邓佳程 阅读(570) 评论(0) 推荐(0)

tensorflow学习笔记(2)-反向传播

摘要: tensorflow学习笔记(2)-反向传播 反向传播是为了训练模型参数,在所有参数上使用梯度下降,让NN模型在的损失函数最小 损失函数:学过机器学习logistic回归都知道损失函数-就是预测值和真实值得差距,比如sigmod或者cross-entropy 均方误差:tf.reduce_mean( 阅读全文

posted @ 2018-05-26 22:24 邓佳程 阅读(950) 评论(0) 推荐(0)

tensorflow学习笔记(1)-基本语法和前向传播

摘要: tensorflow学习笔记(1) (1)tf中的图 图中就是一个计算图,一个计算过程。 图中的constant是个常量 计算图只描述过程,不执行。 (2)tf中的会话 那么怎么计算呢? tensorflow有个会话是专门用来计算的 这里定义了个矩阵相乘的运算,并用会话结构 with tf.sess 阅读全文

posted @ 2018-05-26 19:52 邓佳程 阅读(274) 评论(0) 推荐(0)

深度学习-tensorflow学习笔记(1)-MNIST手写字体识别预备知识

摘要: 深度学习-tensorflow学习笔记(1)-MNIST手写字体识别预备知识 在tf第一个例子的时候需要很多预备知识。 tf基本知识 香农熵 交叉熵代价函数cross-entropy 卷积神经网络 softmax 这里用到的tf基本知识 香农熵 香农熵是计算信息复杂度的公式。 公式如下 要理解这个公 阅读全文

posted @ 2018-05-26 16:15 邓佳程 阅读(542) 评论(0) 推荐(0)

导航