摘要: 1、Knowledge Distillation in Iterative Generative Models for Improved Sampling Speed 提高采样速度2种方法:schedular优化、蒸馏 本论文基于DDIM,DDPM训练出来的epsilon theta 可以直接用于D 阅读全文
posted @ 2025-03-25 21:40 Jary霸 阅读(81) 评论(0) 推荐(0)