Prompt | 存档使用 code agent 过程中 work 和不 work 的 prompt
正样本
20260403,复现 agent-r1 过程中脚本报错,修脚本。
上下文:1. 报错的那个 bash 脚本,2. kimi 对两个报错的分析与解决方案。
现在,我正在跑这个程序,总是遇到显存不足的问题。给你看我与 kimi 的交互,这是我遇到的两个显存不足的问题。
现在,请回答我这些问题:
- gpu_memory_utilization 到底是什么参数,它是如何 work 的,太高或太低会发生什么,我应该参考哪些指标和现象来调整这个指标。
- 在这份代码里,我应该如何降低 max_model_len、使用 Tensor Parallelism、Pipeline Parallelism,启用 KV Cache 量化?(要确保你给我信息是正确的,你自己先跑代码检查一下,确保能正常运行,跑好几个 epoch 这种)
- 我目前的代码里,gpu_memory_utilization 从 0.6 到 0.95 都试过了。太高就会报下面的错误,太低则会爆上面的错误。5 6 7 卡都可以用,都有 80GB,按理来说是可以跑这个 3B 小模型的(我给你的 bash 脚本)。请帮我 debug 一下,看看到底怎么回事,要确保这个脚本要能跑。
交付标准:
- 请把以上内容总结为一个或多个 详尽的 markdown 文件,存放在这个库的根目录下。文件内容需要清晰、详细,并且易于理解。
- 请确保文档包含以上所有信息,以及所有必要的信息。请确保你交付的信息都是正确的。允许你执行代码或上网反复查证。我使用的 conda(/home/yyq/miniconda3/condabin/conda)环境是 mn_verl,它已经配好了 可以直接跑,你可以复制一个 mn_verl_copy 来跑代码。
- 如果你所获取的信息仍未达到交付标准,请继续获取信息、进行迭代和必要的 debug,直到达到交付标准为止。
负样本
20260401,让 codex 直接帮我复现 agent-r1。
失败原因:codex 不会装 flash-attention。
我希望复现这个 repo 的实验结果。请你开始进行复现。
首先,你可能需要安装环境。我使用的 conda 是 /home/yyq/miniconda3/condabin/conda(which conda 的运行结果)。
然后,请你开始复现这个 repo 的实验结果。请参考 REPRODUCTION_GUIDE_ZH.md 这个文件中的说明,按照其中的步骤进行复现。
交付标准:
- 跑通所有测试脚本,并得到有意义的、(如果 repo 文档或原论文中有说明)与 repo 文档或原论文结果对齐的结果。
- 请观测、记录复现的实验结果。请记录你使用的观测方法,如 wandb、tensorboard 等;请记录结果的数值大小,并且在复现完成后进行总结,形成一个详尽的 markdown 文件,存放在这个库的根目录下。文件内容需要清晰、详细,并且易于理解。
- 复现过程中遇到的任何问题,都需要进行记录,并且在复现完成后进行总结,形成一个详尽的 markdown 文件,存放在这个库的根目录下。文件内容需要清晰、详细,并且易于理解。
- 如果你所获取的信息仍未达到交付标准,请继续获取信息、进行迭代,直到达到交付标准为止。
我们的计算资源有 8 卡 80G A800,你可以考虑在多张卡上并行进行实验。优先从 7 卡开始用,从 7 卡到 0 卡这样用。比如,如果只需要 4 张卡,就使用 4 5 6 7 卡。
请注意,我的账号有 sudo 权限,如果有什么需要安装的包,请说明原因后运行命令,我会允许。如果发现有其他非 yyq 的用户(比如 root zzyy,而非 yyq yyq2 yyq3 等)正在占用 gpu,请为我汇报情况,并执行 kill 他们进程的命令,我会允许。如果有 yyq 用户正在占用 gpu,请为我汇报情况,而不执行 kill 他们进程的命令。

浙公网安备 33010602011771号