随笔分类 -  Paper Reading

摘要: 阅读全文
posted @ 2019-06-08 22:03 nowgood 阅读(5619) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-05-26 20:10 nowgood 阅读(2160) 评论(0) 推荐(1)
摘要: 这里有意思的一点就是, 这里提到如果有更多与原始训练集相似的未标记的数据可用, 即使老师模型的性能不变, 随着数据的增多, 学生模型的性能也会提高, 可以试一下. 阅读全文
posted @ 2019-05-26 18:06 nowgood 阅读(1687) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-04-22 11:52 nowgood 阅读(1407) 评论(0) 推荐(0)
摘要: center loss 阅读全文
posted @ 2019-04-21 19:14 nowgood 阅读(1959) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-04-21 17:41 nowgood 阅读(626) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2019-04-21 15:51 nowgood 阅读(567) 评论(0) 推荐(0)
摘要: 该论文探讨了一种与模型蒸馏(model distillation)相关却不同的模型---即相互学习(mutual learning)。 阅读全文
posted @ 2019-03-03 22:26 nowgood 阅读(1664) 评论(0) 推荐(0)