摘要: 【GiantPandaCV导语】收集自RepDistiller中的蒸馏方法,尽可能简单解释蒸馏用到的策略,并提供了实现源码。 1. KD: Knowledge Distillation 全称:Distilling the Knowledge in a Neural Network 链接:https: 阅读全文
posted @ 2021-12-13 12:27 pprp 阅读(1656) 评论(0) 推荐(2) 编辑