上一页 1 2 3 4 5 6 7 8 9 ··· 15 下一页

2025年7月24日

RM-Bench评估方式

摘要: 数据格式: { "id": // unique identifier of the sample, "prompt": // the prompt given to the model, "chosen": [ "resp_1", // the chosen response with concis 阅读全文

posted @ 2025-07-24 17:49 limingqi 阅读(13) 评论(0) 推荐(0)

2025年7月23日

RM-Bench 和 reward_bench 评估指标的优化

摘要: RM-Bench 和 RewardBench 的指标可以同时优化,但需要系统性地解决数据设计、模型架构和训练策略中的核心矛盾。以下结合最新研究进展和工业级实践,从数据增强、模型校准、训练范式、评估创新四个维度提出可落地的优化方案: 一、数据增强:构建对抗性混合数据集 1. 金标准锚定 + 银标准扩展 阅读全文

posted @ 2025-07-23 15:02 limingqi 阅读(80) 评论(0) 推荐(0)

RM-Bench 和 reward_bench 评估相互抑制

摘要: RM-Bench 和 RewardBench 的指标确实存在相互抑制的现象,且这种抑制性在当前主流奖励模型中普遍存在。以下从数据设计差异、评估逻辑冲突、模型优化路径三个维度展开分析,并结合最新研究案例说明其内在机制: 一、数据设计差异导致的天然对立 RM-Bench 的「去形式化」设计RM-Benc 阅读全文

posted @ 2025-07-23 14:52 limingqi 阅读(27) 评论(0) 推荐(0)

RewardBench 2测评数据集精确指令指标下降

摘要: 在 RewardBench 2 测试中,精确指令遵循(如 “回答时不要使用字母 u”)和高质量切题答案这两个指标下降明显,通常反映了模型在指令理解精度、意图对齐能力或生成约束控制等核心环节存在问题。具体可从以下几个角度分析可能的原因: 一、精确指令遵循能力下降的核心原因 精确指令遵循考验模型对细粒度 阅读全文

posted @ 2025-07-23 10:53 limingqi 阅读(17) 评论(0) 推荐(0)

2025年7月22日

奖励模型训练数据的分布情况

摘要: 奖励模型(Reward Model, RM)的训练数据通常是偏好数据(如包含prompt、chosen(优选响应)、rejected(非优选响应)的三元组),其分布情况直接影响模型的偏好学习和泛化能力。查看分布需从数据基本特征、文本内容特性、任务 / 元数据标签等多个维度分析,以下是具体方法和工具: 阅读全文

posted @ 2025-07-22 14:05 limingqi 阅读(51) 评论(0) 推荐(0)

少量数据微调通用模型指标下降明显

摘要: 用 Qwen2.5-3B 通用模型在少量数据集上微调后出现 “掉点”(性能下降),本质是模型在微调过程中未能有效学习目标任务模式,甚至破坏了预训练的通用能力,核心原因可从以下几个方面分析: 一、数据层面:少量数据的固有缺陷 过拟合风险剧增少量数据集(如几百到几千样本)难以覆盖目标任务的完整分布,模型 阅读全文

posted @ 2025-07-22 11:39 limingqi 阅读(170) 评论(0) 推荐(0)

评估两个数据集的分布情况

摘要: 评估两个数据集的分布差异,需要根据数据类型(如结构化数据、文本、图像)和分布特性(如单变量 / 多变量、连续 / 离散)选择合适的方法。以下是常用的评估方法,按 “直观性→量化性→复杂场景适配性” 排序: 一、可视化方法(直观判断分布差异) 通过可视化直接观察两个数据集的分布形态,适合快速定性分析。 阅读全文

posted @ 2025-07-22 11:38 limingqi 阅读(340) 评论(0) 推荐(0)

2025年7月20日

GPT原理

摘要: 1.GPT的定义与发展历程 1.1生成式预训练模型 GPT 是 “Generative Pre-trained Transformer” 的缩写,即生成式预训练变换器,是由 OpenAI 开发的一系列自然语言处理模型。它是一种基于 Transformer 架构的生成模型,通过在大规模文本数据上进行预 阅读全文

posted @ 2025-07-20 14:38 limingqi 阅读(510) 评论(0) 推荐(0)

GPT生成参数微调

摘要: 在 GPT 等大语言模型中,top-p(核采样)和top-k(顶部 k 采样)是控制文本生成多样性与质量的核心参数,属于生成阶段的超参数调优范畴(与训练时的参数优化不同)。以下是其技术原理、调优方法及实际应用策略: 一、核心概念与原理 1. top-k 采样:固定范围的候选词筛选 · 定义:从概率分 阅读全文

posted @ 2025-07-20 14:35 limingqi 阅读(92) 评论(0) 推荐(0)

Self-Attention

摘要: 故事引入 想象你在图书馆找一本编程书籍: 1. 你的需求(Query)是"Python数据科学" 2. 书架标签(Key)显示"机器学习"、"Web开发"等 3. 通过比对需求与标签,你找到最相关(Value)的书籍 这个找书的过程就是注意力机制的生动体现! 核心概念解释 注意力权重:就像找书时要判 阅读全文

posted @ 2025-07-20 12:35 limingqi 阅读(27) 评论(0) 推荐(0)

上一页 1 2 3 4 5 6 7 8 9 ··· 15 下一页

导航