摘要:
sparse_softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 定义 说明 此函数大致与tf_nn_softmax_cross_entropy_with_logits的计算方式相同, 适用于每个类别相互独立且排斥的情况, 阅读全文
posted @ 2017-08-26 16:28
WUST许志伟
阅读(7037)
评论(0)
推荐(0)
摘要:
softmax_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 解释 这个函数的作用是计算 logits 经 softmax 函数激活之后的交叉熵。 对于每个独立的分类任务,这个函数是去度量概率误差。比如,在 CIFAR 1 阅读全文
posted @ 2017-08-26 16:16
WUST许志伟
阅读(2194)
评论(0)
推荐(0)
摘要:
weighted_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 此函数功能以及计算方式基本与tf_nn_sigmoid_cross_entropy_with_logits差不多,但是加上了权重的功能,是计算具有权重的sigmoid交 阅读全文
posted @ 2017-08-26 16:05
WUST许志伟
阅读(10221)
评论(0)
推荐(1)
摘要:
sigmoid_cross_entropy_with_logits 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 函数定义 函数意义 这个函数的作用是计算经sigmoid 函数激活之后的交叉熵。 为了描述简洁,我们规定 x = logits,z = targets,那么 Logist 阅读全文
posted @ 2017-08-26 15:21
WUST许志伟
阅读(13744)
评论(1)
推荐(1)
摘要:
交叉熵损失函数的概念和理解 觉得有用的话,欢迎一起讨论相互学习~ " " " " " " 公式 $$ loss =\sum_{i}{(y_{i} \cdot log(y\_predicted_{i}) +(1 y_{i}) \cdot log(1 y\_predicted_{i}) )} $$ 定义 阅读全文
posted @ 2017-08-26 15:15
WUST许志伟
阅读(9026)
评论(2)
推荐(1)

浙公网安备 33010602011771号