会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Cold_Chair的博客
天天被锤爆!怎么办?菜哭了啊o(╥﹏╥)o
博客园
首页
新随笔
联系
管理
2025年4月3日
多线程调用 LLM API 模板
摘要: 服务器上用 vllm 部署了多个 Qwen2.5-72B-Instruct 节点,都只支持单次推理,不支持批量推理。 要清洗数据,有上万个单轮请求,通过 GPT 写了一个简单的多线程批量推理脚本,基于线程锁,见下面: import openai import concurrent.futures i
阅读全文
posted @ 2025-04-03 16:50 Cold_Chair
阅读(250)
评论(0)
推荐(0)
公告