摘要: 目录1. 参考2. 概述重复惩罚(Repetition Penalty) 1. 参考 https://mp.weixin.qq.com/s/mBZA6PaMotJw7WeVdA359g 2. 概述 大型语言模型(LLMs)通过“根据上下文预测下一个 token 的概率分布”来生成文本。最简单的采样方 阅读全文
posted @ 2024-12-21 14:14 jack-chen666 阅读(868) 评论(0) 推荐(0)