06 2025 档案

摘要:1、概述 在《Token:大语言模型的“语言乐高”,一切智能的基石》与《LLM 输出配置 (LLM output configuration)》这两篇博文中介绍了LLM Token、最大输出长度、温度、Top-K、Top-P概念,这篇文章介绍下LLM 上下文长度。 2、上下文长度 2.1 上下文长度 阅读全文
posted @ 2025-06-10 11:23 人艰不拆_zmc 阅读(1022) 评论(0) 推荐(0)
摘要:1、概述 大型语言模型(LLM)的输出行为可以通过多种配置参数进行精细控制。这些参数共同决定了模型生成文本的质量、风格和多样性。理解这些配置选项及其相互作用对于有效使用LLM至关重要。 2、输出长度 (Output length) 一个重要的配置设置是响应中要生成的令牌数量。生成更多令牌需要 LLM 阅读全文
posted @ 2025-06-09 14:06 人艰不拆_zmc 阅读(474) 评论(0) 推荐(0)
摘要:1、什么是Token?——AI眼中的“文字积木块” Token 是模型用来表示自然语言文本的基本单位,也是模型的计费单元,可以直观的理解为“字”或“词”;通常 1 个中文词语、1 个英文单词、1 个数字或 1 个符号计为 1 个 token。 一般情况下模型中 token 和字数的换算比例大致如下: 阅读全文
posted @ 2025-06-06 15:35 人艰不拆_zmc 阅读(722) 评论(0) 推荐(0)