10 2020 档案
摘要:倾向于使用准确率,是因为熟悉它的定义,而不是因为它是评估模型的最佳工具! 精度(查准率)和召回率(查全率)等指标对衡量机器学习的模型性能是非常基本的,特别是在不平衡分布数据集的案例中,在周志华教授的「西瓜书」中就特别详细地介绍了这些概念。 什么是分布不平衡的数据集? 倘若某人声称创建了一个能够识别登
阅读全文
摘要:退化学习率(Decaying the learning rate) 操作描述 tf.train.exponential_decay(learning_rate, global_step,decay_steps, decay_rate, staircase=False, name=None) 对学习率
阅读全文
摘要:在计算loss的时候,最常见的一句话就是tf.nn.softmax_cross_entropy_with_logits,那么它到底是怎么做的呢? 首先明确一点,loss是代价值,也就是我们要最小化的值 tf.nn.softmax_cross_entropy_with_logits(logits, l
阅读全文
摘要:欧氏距离(Euclidean distance)也称欧几里得度量、欧几里得度量,是一个通常采用的距离定义,它是在m维空间中两个点之间的真实距离。在二维和三维空间中的欧氏距离的就是两点之间的距离。 Lp space p范数:║x║p=(|x1|^p+|x2|^p+…+|xn|^p)^{1/p} 每个值
阅读全文
摘要:以下这些函数可以用于解决梯度消失或梯度爆炸问题上。 tensorflow 中的clip_by_norm optimizer = tf.train.AdamOptimizer(learning_rate, beta1=0.5) grads = optimizer.compute_gradients(c
阅读全文
摘要:I optimizer.minimize(loss, var_list) 我们都知道,TensorFlow为我们提供了丰富的优化函数,例如GradientDescentOptimizer。这个方法会自动根据loss计算对应variable的导数。示例如下: loss = ... opt = tf.t
阅读全文

浙公网安备 33010602011771号