上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 92 下一页
  2023年7月10日
摘要: 我们如何确保人工智能系统比人类聪明得多并遵循人类意图? 目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控。我们当前调整人工智能的技术,例如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统,乙[乙] 其他假设在未来也可能被 阅读全文
posted @ 2023-07-10 20:05 风生水起 阅读(101) 评论(0) 推荐(0)
  2023年6月23日
摘要: grep 是一个强大的文本搜索工具,在命令行中常用于查找匹配指定模式的文本行。以下是一些常用的 grep 命令示例: 在文件中查找匹配模式的行:grep "pattern" filename,这将在指定的文件中查找包含匹配 "pattern" 的行,并将其打印出来。 忽略字母大小写进行匹配:grep 阅读全文
posted @ 2023-06-23 16:28 风生水起 阅读(342) 评论(0) 推荐(0)
摘要: 在Vim编辑器中,你可以使用以下命令来进行上下翻页: Ctrl + F:向下翻一页(Forward)。 Ctrl + B:向上翻一页(Backward)。 Ctrl + D:向下翻半页。 Ctrl + U:向上翻半页。 将光标移动到行首可以按下0键,到行尾可以按下 $ 键。 Vim快捷方向键和以单词 阅读全文
posted @ 2023-06-23 16:25 风生水起 阅读(382) 评论(0) 推荐(0)
  2023年6月14日
摘要: 在强化学习中,PPO(Proximal Policy Optimization)算法是一种基于策略梯度的方法,用于训练强化学习智能体。PPO算法中引入Critic模型的主要目的是为了提供一个价值估计器,用于评估状态或状态动作对的价值,从而辅助策略的更新和优化。 虽然奖励模型(Reward Model 阅读全文
posted @ 2023-06-14 18:13 风生水起 阅读(5733) 评论(1) 推荐(3)
  2023年6月10日
该文被密码保护。 阅读全文
posted @ 2023-06-10 11:40 风生水起 阅读(0) 评论(0) 推荐(0)
  2023年6月1日
摘要: 说明:左边是一个与Show probabilities设置为 的OpenAI Playground 基本一致的界面Full spectrum。提示是Are bugs real?,随后突出显示的文本是模型生成的完成。令牌根据模型预测的概率进行着色,绿色最有可能,红色最不可能。左侧的下拉菜单显示了在特定 阅读全文
posted @ 2023-06-01 14:34 风生水起 阅读(107) 评论(0) 推荐(0)
  2023年5月30日
摘要: RLHF不擅长推理、事实等固定答案的优化,擅长自由度更高的生成;RLHF的上限取决于预训练模型本身的能力,对于多项选择这种需要推理、知识和输出格式固定的任务,预训练后的GPT-4[2]能到73.7%,RLHF之后只到了74%,单独看很多任务还有下降。 当奖励模型从 SFT 模型或预训练的 GPT-3 阅读全文
posted @ 2023-05-30 17:24 风生水起 阅读(96) 评论(0) 推荐(0)
  2023年5月29日
摘要: 要修改Jupyter Notebook内核对应的Python地址,可以按照以下步骤进行: 打开终端或命令提示符。 列出当前可用的Jupyter Notebook内核。运行以下命令:jupyter kernelspec list,这将列出已安装的内核及其位置。 找到您想要修改的内核对应的配置文件。在上 阅读全文
posted @ 2023-05-29 19:07 风生水起 阅读(625) 评论(0) 推荐(0)
  2023年5月25日
摘要: 综上,PPO算法是一种具体的Actor-Critic算法实现,比如在对话机器人中,输入的prompt是state,输出的response是action,想要得到的策略就是怎么从prompt生成action能够得到最大的reward,也就是拟合人类的偏好。具体实现时,可以按如下两大步骤实现 首先定义4 阅读全文
posted @ 2023-05-25 16:20 风生水起 阅读(853) 评论(0) 推荐(0)
  2023年5月17日
摘要: 阅读全文
posted @ 2023-05-17 18:17 风生水起 阅读(221) 评论(0) 推荐(0)
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 92 下一页