摘要:
知识蒸馏就是Knowledge Distillation。 Knowledge Distillation:https://arxiv.org/abs/1503.02531 Do Deep Nets Really Need to be Deep?:https://arxiv.org/abs/1312. 阅读全文
摘要:
生成模型中的半监督学习:Semi-supervised Learning for Generative Model 有监督生成模型 有监督生成模型:Supervised Generative Model 如下图所示,在有监督生成模型中,得到$P(C_1),P(C_2),\mu1,\mu2,\Sigm 阅读全文