随笔分类 -  tensorflow

摘要:# 加速神经网络训练 使用梯度下降的时候,有一个问题,就是在网络非常复杂的时候,梯度下降的时候对计算的需求非常高。 常见的几种加速求解cost的最小值的方法:1. Stochastic Gradient Descent (SGD) 2. Momentum 3. AdaGrad 4. RMSProp 阅读全文
posted @ 2019-08-08 20:25 也许明天、
摘要:代码: 结果: 阅读全文
posted @ 2019-08-08 17:27 也许明天、
摘要:学习莫凡的tensorflow https://www.bilibili.com/video/av16001891/?p=16 构造一个3层的网络输入层一个结点,隐层10个结点,输出层一个结点 输入层的维度是[n,1]隐层的维度是 [1,10]输出层的维度是[10,1] so,权值矩阵的维度是:we 阅读全文
posted @ 2019-08-08 17:05 也许明天、
摘要:在训练的过程中经常会出现loss=NaN的情况,在网上查了查一般做法是减小学习速率或者增大batch_size。尝试了一下减小学习速率,可以解决问题。但是不明白为什么。所以整理了一下loss为nan的问题。 现在依然不清楚为什么减小学习速率会解决这个问题,请各位不吝赐教。 如果一开始loss就为na 阅读全文
posted @ 2019-08-08 17:01 也许明天、
摘要:参数: input_tensor:要减少的张量.应该有数字类型. axis:要减小的尺寸.如果为None(默认),则缩小所有尺寸.必须在范围[-rank(input_tensor), rank(input_tensor))内. keep_dims:如果为true,则保留长度为1的缩小尺寸. name 阅读全文
posted @ 2019-08-08 16:46 也许明天、
摘要:本文为个人学习记录,学习参考莫凡tensorflow 首先创建一个随机的浮点型的数据集: x_data = np.random.rand(100).astype(np.float32) y_data = x_data*0.2 + 0.1 在随机初始化权重和偏移量: Weights = tf.Vari 阅读全文
posted @ 2019-08-08 16:32 也许明天、
摘要:定义添加神经层的函数def add_layer(),它有四个参数:输入值、输入的大小、输出的大小和激励函数;在这里我们设置为None没有激活函数。 首先在构建神经网络的时候需要搞清楚每一层矩阵的维度, 在这里的表示方式是: input * weights: 输入层的结点个数是2,隐层是3,input 阅读全文
posted @ 2019-08-08 16:08 也许明天、
摘要:原型: tf.placeholder( dtype, shape=None, name=None ) placeholder 是 Tensorflow 中的占位符,如果想要从外部传入data, 那就需要用到 tf.placeholder(),然后以这种形式传输数据 sess.run(***, fee 阅读全文
posted @ 2019-08-08 15:30 也许明天、
摘要:主要参照莫凡tensorflow学习: 代码: ## 定义#定义一个变量和一个常量 定义一个加法: 初始化,在初始化之前是变量是没有值的: 注意如果tensorflow版本>= 0.12,使用下面语句初始化变量,相反则:使用init = tf.initialize_all_variables()初始 阅读全文
posted @ 2019-08-07 22:19 也许明天、
摘要:代码开头会加上from __future__ import *这样的语句。这样的做法的作用就是将新版本的特性引进当前版本中,也就是说我们可以在当前版本使用新版本的一些特性。 __future__模块还有很多其他功能:整数除法,with 用法,绝对引入(absolute_import):绝对引入主要是 阅读全文
posted @ 2019-08-07 21:51 也许明天、
摘要:解决方法:在代码的开头加上一句 参考:ValueError: Variable rnn/basic_rnn_cell/kernel already exists, disallowed. Did you mean to set reuse=True or reuse=tf.AUTO_REUSE in 阅读全文
posted @ 2019-08-03 09:22 也许明天、
摘要:做物体检测的网络有很多种,如faster rcnn,ssd,yolo等等,通过不同维度的对比,各个网络都有各自的优势。 毕竟nano pi M4计算能力有限,我们这里先选择专门为速度优化过最快的网络SSD,以及经典的faster-rcnn作对比,再加上能显示mask的高端网络,,, 事实上yolo 阅读全文
posted @ 2019-07-29 10:09 也许明天、