会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
zz-w
博客园
首页
新随笔
联系
订阅
管理
2025年2月26日
使用 TRL 训练Reward Model奖励模型
摘要: 训练过程 在此示例中,将微调“distilroberta-base”模型。 该formatting_func函数将指令与所选和拒绝的响应相结合,创建两个新字符串。这些字符串被标记化,成为奖励模型的输入,该模型根据这些示例学习区分好响应和坏响应。损失函数的设计方式是最大化所选和拒绝响应的分数之间的差异
阅读全文
posted @ 2025-02-26 23:42 AAA建材王师傅
阅读(882)
评论(0)
推荐(0)
公告