会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
innerNaN
博客园
首页
新随笔
联系
订阅
管理
2018年7月3日
论文总结:Deep Model Compression-Distilling Knowledge from Noisy Teachers
摘要: 原文:https://arxiv.org/abs/1610.09650 参照:Distilling the Knowledge in a Neural Network Abstract 此文可以认为是"Distilling the Knowledge in a Neural Network"的变形,
阅读全文
posted @ 2018-07-03 19:10 innerNULL
阅读(653)
评论(0)
推荐(0)
2018年7月1日
论文总结:Distilling the Knowledge in a Neural Network(蒸馏神经网络)
摘要: 原文地址:https://arxiv.org/abs/1503.02531v1 Abstract: 在机器学习领域,ensemble learning是一种普遍适用的用来提升模型表现的方法, 将通过ensemble learning训练出的模型称为 cubersome model , 但在这种情况下
阅读全文
posted @ 2018-07-01 16:48 innerNULL
阅读(1821)
评论(0)
推荐(0)
公告