会员
周边
新闻
博问
AI培训
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
致林
github.com/haibincoder
博客园
首页
联系
订阅
管理
2021年2月2日
机器学习常用损失函数
摘要: 信息熵 信息熵也被称为熵,用来表示所有信息量的期望。 公式如下: 例如在一个三分类问题中,猫狗马的概率如下: |label|猫|狗|马| |:--|:--|:--|:--| |predict|0.7|0.2|0.1| |信息量|-log(0.7)|-log(0.2)|-log(0.1)| 信息熵为:
阅读全文
posted @ 2021-02-02 16:07 致林
阅读(715)
评论(0)
推荐(0)
编辑
公告