dLLM:复用自回归模型权重快速训练扩散语言模型
大语言模型的文本生成方式一直都是以自回归为主:一个token接一个token,从左往右,生成完就定了。
但现在有个不太一样的思路开始在研究圈里流行起来,那就是扩散语言模型(Diffusion LMs)。扩散模型在图像生成领域已经证明了自己的可行性,但是问题是把这套东西用到文本上一直很麻烦——训练难、评估难、更别提怎么集成到现有的LLM工作流里了。

dLLM是一个开源的Python库,它把扩散语言模型的训练、微调、推理、评估这一整套流程都统一了起来,而且号称任何的自回归LLM都能通过dLLM转成扩散模型
https://avoid.overfit.cn/post/5dc5d844044d404d868bf9512bca2f9b

浙公网安备 33010602011771号