02 2018 档案
摘要:优化 池化 Pooling max pooling 理论上,最大池化操作的好处是减小输入大小,使得神经网络能够专注于最重要的元素。最大池化只取覆盖区域中的最大值,其它的值都丢弃。 TensorFlow 提供了 tf.nn.max_pool() 函数,用于对卷积层实现 最大池化 。 tf.nn.max
阅读全文
摘要:"来源" dilation_rate为一个可选的参数,默认为1,这里我们可以先不管它。 整理一下,对于“VALID”,输出的形状计算如下: new_height=new_width=⌈(W–F+1)/S⌉ 对于“SAME”,输出的形状计算如下: new_height=new_width=⌈W/S⌉
阅读全文
摘要:问题一:对特征归一化 Min Max Scaling: X′=a+(X−Xmin)(b−a)/(Xmax−Xmin) 问题二:用 TensorFlow 创建特征、目标、权重和偏置项 tensor。 问题三:调整学习率,epochs 和 batch size 来获取最高准确率
阅读全文
摘要:激活函数 使用 S 型函数作为隐藏单元上的激活函数,S 型函数的导数最大值为 0.25(如上所示)。这意味着,当你用 S 型函数单元进行反向传播时,网络上每层出现的错误至少减少 75%,如果有很多层,权重更新将很小,这些权重需要很长的训练时间。因此,S 型函数不适合作为隐藏单元上的激活函数。 初识修
阅读全文
摘要:tensorflow数学运算 1. 加法、 减法、乘法、 除法 ` 2. 矩阵相乘,所以你要用 tf.matmul() 函数 不要忘记矩阵相乘的规则,tf.matmul(a,b) 不等于 tf.matmul(b,a)。
阅读全文
摘要:TensorFlow 里的线性函数 y=xW+b 这里W 是连接两层的权重矩阵。输出y,输入x,偏差 b 全部都是向量。 训练神经网络的目的是更新权重和偏差来更好地预测目标。为了使用权重和偏差,你需要一个能修改的 Tensor.这里就需要 tf.Variable 了。 tf.Variable 类创建
阅读全文
摘要:初始值设置 self.Q[state]=dict.fromkeys(self.valid_actions,0.0)
阅读全文

浙公网安备 33010602011771号