摘要:
1:交叉熵 cross entropy (1)entropy熵 [注]熵又称为不确定性或者惊喜度或者是信息量.值越小,不确定性越强.(值越小惊喜度越大或者是值越小信息量越大) 例如:下图中的彩票中奖率. 假如1:有四个数字中奖概率分别为0.25,则熵值会很大.即中奖的概率确定性很高,也即是惊喜度越小 阅读全文
posted @ 2021-07-31 17:52
收购阿里巴巴
阅读(349)
评论(0)
推荐(0)
摘要:
1:逻辑回归 (1)逻辑回归的目标以及方法 (2)为什么不能直接最大化精确度? [注] 问题1:当权值改变,精确度没有改变,即梯度信息为0的情况. 问题2:当权值改变一点,精确度发生很大的变化:如当权值改变0.001,原来判断错误的点被判断为正确,结果导致精确度发生很大的改变,导致梯度信息不连续.从 阅读全文
posted @ 2021-07-31 17:16
收购阿里巴巴
阅读(297)
评论(0)
推荐(0)

浙公网安备 33010602011771号