随笔分类 - Tensorflow
摘要:TFRecord 是 tensorflow 内置的文件格式,它是一种二进制文件,具有以下优点: 1. 统一各种输入文件的操作 2. 更好的利用内存,方便复制和移动 3. 将二进制数据和标签(label)存储在同一个文件中 引言 我们先不讲 TFRecord,认识几个操作吧 tf.train.Int6
阅读全文
摘要:softmax是在一个n分类问题中,输入一个n维的logits向量,输出一个n维概率向量,其物理意义是logits代表的物体属于各类的概率。即softmax的输出是一个n维的one_hot_prediction。 softmax_cross_entropy_with_logits输出的是一个batc
阅读全文
摘要:最近在用TensorFlow实现CNN网络时用到了全连接层,在网上看了很多有关全连接层实现的代码,发现相当一部分人都还是倾向于自己构造权重矩阵W和偏移矩阵b,利用矩阵乘法实现全连接层。而TensorFlow中封装了全连接层函数tf.layers.dense(),但是官方文档中并没有解释其详细原理。网
阅读全文
摘要:在Tensorflow中,所有操作对象都包装到相应的Session中的,所以想要使用不同的模型就需要将这些模型加载到不同的Session中并在使用的时候申明是哪个Session,从而避免由于Session和想使用的模型不匹配导致的错误。而使用多个graph,就需要为每个graph使用不同的Sessi
阅读全文
摘要:退化学习率(Decaying the learning rate) 操作描述 tf.train.exponential_decay(learning_rate, global_step,decay_steps, decay_rate, staircase=False, name=None) 对学习率
阅读全文
摘要:在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l
阅读全文
摘要:以下这些函数可以用于解决梯度消失或梯度爆炸问题上。 tensorflow 中的clip_by_norm optimizer = tf.train.AdamOptimizer(learning_rate, beta1=0.5) grads = optimizer.compute_gradients(c
阅读全文
摘要:I optimizer.minimize(loss, var_list) 我们都知道,TensorFlow为我们提供了丰富的优化函数,例如GradientDescentOptimizer。这个方法会自动根据loss计算对应variable的导数。示例如下: loss = ... opt = tf.t
阅读全文
摘要:由于特殊原因不能连网,需要搭建一个离线的tensorflow-gpu的开发环境,折腾了几天,分享给大家,希望少走弯路。 我的配置python3.6+pycharm3.5+anaconda3-5.2.0+cuda9.0+cudnn7.5.1 一、python安装比较简单,不再叙述,Anaconda,
阅读全文
摘要:CondaHTTPError: HTTP 000 CONNECTION FAILED for url 解决办法: 找到C:\Users\username\.condarc #首先先添加清华的镜像源conda config --add channels https://mirrors.tuna.tsi
阅读全文

浙公网安备 33010602011771号