摘要: tensorboard可以将训练过程中的一些参数可视化,比如我们最关注的loss值和accuracy值,简单来说就是把这些值的变化记录在日志里,然后将日志里的这些数据可视化。 首先运行训练代码 注意我将训练日志保存在 /home/xxx/logs/ 路径下,打开终端,输入以下命令 tensorboa 阅读全文
posted @ 2018-11-16 10:29 水木清扬 阅读(294) 评论(0) 推荐(0) 编辑
摘要: Tensorflow学习教程 过拟合 回归:过拟合情况 / 分类过拟合 防止过拟合的方法有三种: 1 增加数据集 2 添加正则项 3 Dropout,意思就是训练的时候隐层神经元每次随机抽取部分参与训练。部分不参与 最后对之前普通神经网络分类mnist数据集的代码进行优化,初始化权重参数的时候采用截 阅读全文
posted @ 2018-11-16 10:28 水木清扬 阅读(265) 评论(0) 推荐(0) 编辑
摘要: Tensorflow学习教程 代价函数 二次代价函数(quadratic cost): 其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数。为简单起见,使用一个样本为例进行说明,此时二次代价函数为: 假如我们使用梯度下降法(Gradient descent)来调整权值参数 阅读全文
posted @ 2018-11-16 10:27 水木清扬 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 首先是不含隐层的神经网络, 输入层是784个神经元 输出层是10个神经元 代码如下 结果如下 接下来是含一个隐层的神经网络,输入层是784个神经元,两个隐层都是100个神经元,输出层是10个神经元,迭代500次,最后准确率在88%左右,汗。。。。准确率反而降低了,慢慢调参吧 阅读全文
posted @ 2018-11-15 11:34 水木清扬 阅读(199) 评论(0) 推荐(0) 编辑
摘要: 做机器学习的同志们应该对这个都不陌生,这里简单举个例子。一般来说,使用softmax函数来将神经元输出的数值映射到0到1之间,这样神经元输出的值就变为了一个概率值。 公式和例子如下图 公式和例子如下图 阅读全文
posted @ 2018-11-14 22:16 水木清扬 阅读(233) 评论(0) 推荐(0) 编辑
摘要: 结果 可以看到求得的k和b非常接近于我们定义的k值和b值。 阅读全文
posted @ 2018-11-14 22:15 水木清扬 阅读(162) 评论(0) 推荐(0) 编辑
摘要: 自己搭建神经网络求解非线性回归系数 代码 #coding:utf-8 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt #使用numpy 生成200个随机点 x_data = np.linspace( 阅读全文
posted @ 2018-11-14 22:15 水木清扬 阅读(379) 评论(0) 推荐(0) 编辑
摘要: #coding:utf-8 import tensorflow as tf #Fetch input1 = tf.constant(3.0) input2 = tf.constant(1.0) input3 = tf.constant(5.0) add = tf.add(input1,input2) 阅读全文
posted @ 2018-11-14 22:14 水木清扬 阅读(243) 评论(0) 推荐(0) 编辑
摘要: #coding:utf-8 import tensorflow as tf x = tf.Variable([1,2]) a = tf.constant([3,3]) #增加一个减法op sub = tf.subtract(x,a) #增加一个加法op add = tf.add(x,sub) #有变 阅读全文
posted @ 2018-11-14 22:13 水木清扬 阅读(156) 评论(0) 推荐(0) 编辑
摘要: 参考博客:https://www.cnblogs.com/cnugis/p/7635128.html视频链接:https://www.bilibili.com/video/av20542427?from=search&seid=3218324014806772997 Tensorflow作为目前最热 阅读全文
posted @ 2018-11-14 22:12 水木清扬 阅读(173) 评论(0) 推荐(0) 编辑