会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
日拱一卒
知者行之始,行者知之成。 君子务本,本立而道生。
博客园
首页
新随笔
订阅
管理
2019年12月12日
直观理解为什么分类问题用交叉熵损失而不用均方误差损失?
摘要: [TOC] 博客: "blog.shinelee.me" | "博客园" | "CSDN" 交叉熵损失与均方误差损失 常规分类网络最后的softmax层如下图所示,传统机器学习方法以此类比, 一共有$K$类,令网络的输出为$[\hat{y}_1,\dots, \hat{y}_K]$,对应每个类别的概
阅读全文
posted @ 2019-12-12 22:26 shine-lee
阅读(12376)
评论(1)
推荐(6)
编辑
公告