摘要: LLM 原理是根据前面的 token 预测后面的 token,Prompt 是最早输入的 token。LLM 有一些配置也能影响模型输出。 我用一个点菜的比喻来串联所有参数:想象 LLM 是一个厨师,每次要"选"下一个词,就像从菜单上点一道菜。 一、核心采样参数 1、温度 Temperature 温 阅读全文
posted @ 2025-12-17 21:41 古兰精 阅读(121) 评论(0) 推荐(0)