摘要: 模型存储好之后,训练好的参数也会保存,下次就可以直接用训练好的模型来预测了。 初始化权值与偏置值都是0,使用未训练好的模型预测准确率为0.098,读取模型之后,预测准确率0.917。 2019-06-19 10:52:46 阅读全文
posted @ 2019-06-19 10:53 闪亮可可仙 阅读(841) 评论(0) 推荐(0) 编辑
摘要: 还是以手写数字识别为例,想要保存模型,首先建立一个saver: 通过调用save,自动将session中的参数保存起来: 创建路径为当前路径下net文件夹,运行之后: 2019-06-19 10:38:19 阅读全文
posted @ 2019-06-19 10:39 闪亮可可仙 阅读(4302) 评论(0) 推荐(0) 编辑
摘要: 一、问题:如何利用神经网络处理序列问题(语音、文本)? 在MNIST手写数字识别中,输入一张图片,得到一个结果,输入另一张图片,得到另一个结果,输入的样本是相互独立的,输出的结果之间也不会相互影响。也就是说,这时处理的数据是IID(独立同分布)数据,但序列类的数据却不满足IID特征,所以RNN出场了 阅读全文
posted @ 2019-06-18 21:13 闪亮可可仙 阅读(341) 评论(0) 推荐(0) 编辑
摘要: 变量:用来记录状态的变化。 基本类型:字符串、数字、列表、元组、字典。 分类:可变与不可变 如此可见:字符串类型就是不可变的(赋予新值时,地址变了) 由此可见:列表是可变的(更改值,地址不变) 同样,数字、元组为不可变类型,字典为可变类型。 访问顺序: 直接访问(变量名):数字 顺序访问(索引值): 阅读全文
posted @ 2019-06-11 22:01 闪亮可可仙 阅读(397) 评论(0) 推荐(0) 编辑
摘要: 一、这是一个传统的神经网络: 假如输入的是一张1000*1000像素点的图片,输入层v0就会有1M个节点;中间隐藏层v1设有1M个神经元,两层之间的参数就会有1M*1M=10^12个! 权值太多,计算量就会很大,需要的样本也就越大。于是,卷积神经网络出场了。 二、卷积神经网络的层级结构 从图中看出, 阅读全文
posted @ 2019-06-11 18:58 闪亮可可仙 阅读(547) 评论(0) 推荐(0) 编辑
摘要: 一、参考代码 首先定义了一个函数variable_summaries(),用来看数据(比如W,b参数)的平均值,标准差,最值和直方图。 tf.summary.scalar('name',tensor)绘制变换的图表,第一项是字符命名,第二项是要记录跟踪的变量。 tf.summary.merge_al 阅读全文
posted @ 2019-06-05 21:33 闪亮可可仙 阅读(242) 评论(0) 推荐(0) 编辑
摘要: 一、代码 在之前的基础之上,多加了tf.name_scope()函数,相当于给它起名字了,就可以在Tensorboard中可视化出来。 然后会在当前路径下,生成logs文件夹和里面的文件,在命令行输入命令:tensorboard --logdir=所在路径 在谷歌浏览器上打开链接就能看到结果了。 参 阅读全文
posted @ 2019-06-05 20:15 闪亮可可仙 阅读(308) 评论(0) 推荐(0) 编辑
摘要: 深度学习中Dropout原理解析:https://blog.csdn.net/program_developer/article/details/80737724 一、拟合 在机器学习的模型中,如果模型的参数太多,模型太复杂,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。在训练神经网络的时 阅读全文
posted @ 2019-05-31 16:29 闪亮可可仙 阅读(682) 评论(0) 推荐(0) 编辑
摘要: MNIST是深度学习的经典入门demo,它是由6万张训练图片(mnist.train)和1万张测试图片(mnist.test)构成的,每张图片都是28*28大小。MNIST训练数据集mnist.train.images 是一个形状为 [60000,784] 的张量,第一个维度数字用来索引图片,第二个 阅读全文
posted @ 2019-05-31 10:07 闪亮可可仙 阅读(973) 评论(0) 推荐(0) 编辑
摘要: 在用python使用TensorFlow的时候:tf.reduce_sum函数中reduction_indices参数表示函数的处理维度。reduction_indices参数的值默认的时候为None,默认把所有的数据求和,即结果是一维的。reduction_indices参数的值为0的时候,是第0 阅读全文
posted @ 2019-05-30 14:23 闪亮可可仙 阅读(240) 评论(0) 推荐(0) 编辑