会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
InsistPy
博客园
首页
新随笔
联系
订阅
管理
2018年9月19日
Focal loss and weighted loss学习记录
摘要: 首先回顾一下交叉熵: Softmax层的作用是把输出变成概率分布,假设神经网络的原始输出为y1,y2,….,yn,那么经过Softmax回归处理之后的输出为: 交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。假设概率分布p为期望输出(correct
阅读全文
posted @ 2018-09-19 11:27 InsistPy
阅读(3705)
评论(0)
推荐(0)
公告
隐藏