会员
周边
新闻
博问
AI培训
云市场
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
正在学习的小pobby
博客园
首页
联系
订阅
管理
2020年5月21日
【NLP】常用损失函数
摘要: 1.sigmoid_cross_entropy_with_logits tf.nn.sigmoid_cross_entropy_with_logits(logits=logits, labels=labels) 计算方式:对输入的logits先通过sigmoid函数计算,再计算它们的交叉熵,但是它对
阅读全文
posted @ 2020-05-21 09:32 正在学习的小pobby
阅读(230)
评论(0)
推荐(0)
编辑
公告