上一页 1 2 3 4 5 6 7 8 ··· 89 下一页
  2023年6月14日
摘要: 在强化学习中,PPO(Proximal Policy Optimization)算法是一种基于策略梯度的方法,用于训练强化学习智能体。PPO算法中引入Critic模型的主要目的是为了提供一个价值估计器,用于评估状态或状态动作对的价值,从而辅助策略的更新和优化。 虽然奖励模型(Reward Model 阅读全文
posted @ 2023-06-14 18:13 风生水起 阅读(1670) 评论(1) 推荐(2) 编辑
  2023年6月10日
该文被密码保护。 阅读全文
posted @ 2023-06-10 11:40 风生水起 阅读(0) 评论(0) 推荐(0) 编辑
  2023年6月1日
摘要: 说明:左边是一个与Show probabilities设置为 的OpenAI Playground 基本一致的界面Full spectrum。提示是Are bugs real?,随后突出显示的文本是模型生成的完成。令牌根据模型预测的概率进行着色,绿色最有可能,红色最不可能。左侧的下拉菜单显示了在特定 阅读全文
posted @ 2023-06-01 14:34 风生水起 阅读(72) 评论(0) 推荐(0) 编辑
  2023年5月30日
摘要: RLHF不擅长推理、事实等固定答案的优化,擅长自由度更高的生成;RLHF的上限取决于预训练模型本身的能力,对于多项选择这种需要推理、知识和输出格式固定的任务,预训练后的GPT-4[2]能到73.7%,RLHF之后只到了74%,单独看很多任务还有下降。 当奖励模型从 SFT 模型或预训练的 GPT-3 阅读全文
posted @ 2023-05-30 17:24 风生水起 阅读(61) 评论(0) 推荐(0) 编辑
  2023年5月29日
摘要: 要修改Jupyter Notebook内核对应的Python地址,可以按照以下步骤进行: 打开终端或命令提示符。 列出当前可用的Jupyter Notebook内核。运行以下命令:jupyter kernelspec list,这将列出已安装的内核及其位置。 找到您想要修改的内核对应的配置文件。在上 阅读全文
posted @ 2023-05-29 19:07 风生水起 阅读(154) 评论(0) 推荐(0) 编辑
  2023年5月25日
摘要: 综上,PPO算法是一种具体的Actor-Critic算法实现,比如在对话机器人中,输入的prompt是state,输出的response是action,想要得到的策略就是怎么从prompt生成action能够得到最大的reward,也就是拟合人类的偏好。具体实现时,可以按如下两大步骤实现 首先定义4 阅读全文
posted @ 2023-05-25 16:20 风生水起 阅读(445) 评论(0) 推荐(0) 编辑
  2023年5月17日
摘要: 阅读全文
posted @ 2023-05-17 18:17 风生水起 阅读(153) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2023-05-17 18:13 风生水起 阅读(28) 评论(0) 推荐(0) 编辑
  2023年5月16日
摘要: GPT-4 所采用的「预测下一个词」模式,存在着明显的局限性:模型缺乏规划、工作记忆、回溯能力和推理能力。 由于模型依赖于生成下一个词的局部贪婪过程,而没有对任务或输出的全局产生深入的理解。因此,GPT-4 擅长生成流畅且连贯的文本,但不擅长解决无法以顺序方式处理的复杂或创造性问题。 比如,用范围在 阅读全文
posted @ 2023-05-16 21:13 风生水起 阅读(124) 评论(0) 推荐(0) 编辑
  2023年5月12日
摘要: 在Excel中,你可以使用FIND或SEARCH函数来判断一个单元格是否包含某个字符。这两个函数都会返回子字符串在单元格内容中的起始位置,如果没有找到子字符串,则返回错误。 FIND和SEARCH函数的基本语法是相似的,但FIND函数区分大小写,而SEARCH函数不区分大小写。 以下是FIND和SE 阅读全文
posted @ 2023-05-12 13:10 风生水起 阅读(4048) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 89 下一页