会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
g2012
博客园
首页
新随笔
联系
订阅
管理
2022年10月27日
Cross Entropy和Negative Log Likelihood
摘要: 机器学习中损失函数经常会使用Cross Entropy和Negative Log Likelihood两个概念。两者本质上等价,概念上讲,Cross Entropy基于信息论,Negative Log Likelihood基于最大似然。 Cross Entropy 先来看Cross Entropy,
阅读全文
posted @ 2022-10-27 20:28 g2012
阅读(733)
评论(0)
推荐(0)
公告