Fork me on GitHub
摘要: sigmoid 、tanh 、ReLu tanh 函数或者双曲正切函数是总体上都优于 sigmoid 函数的激活函数。 基本已经不用 sigmoid 激活函数了,tanh 函数在所有场合都优于 sigmoid 函数。 但有一个例外:在二分类的问题中,对于输出层,因为y的值是 0 或 1,所以想让y值 阅读全文
posted @ 2018-11-08 21:17 RongT 阅读(544) 评论(0) 推荐(0) 编辑
摘要: 以下仅为了自己方便查看,绝大部分参考来源:莫烦Python,建议去看原博客 一、添加层 def add_layer() 定义 add_layer()函数 在 Tensorflow 里定义一个添加层的函数可以很容易的添加神经层,为之后的添加省下不少时间. 神经层里常见的参数通常有weights、bia 阅读全文
posted @ 2018-11-08 17:52 RongT 阅读(747) 评论(0) 推荐(0) 编辑
摘要: 以下仅为自己的整理记录,绝大部分参考来源:莫烦Python,建议去看原博客 一、处理结构 因为TensorFlow是采用数据流图(data flow graphs)来计算, 所以首先我们得创建一个数据流流图, 然后再将我们的数据(数据以张量(tensor)的形式存在)放在数据流图中计算. 节点(No 阅读全文
posted @ 2018-11-08 14:53 RongT 阅读(658) 评论(0) 推荐(0) 编辑