LobeChat搭建

说明

lobe-chat 只是一个调用模型服务商api的web ui,可以帮助我们更好的使用AI。
开源地址:https://github.com/lobehub/lobe-chat

步骤

docker search lobe-chat
docker pull lobehub/lobe-chat
docker run -d -p 3210:3210 --name lobe-chat  lobehub/lobe-chat
docker ps

访问

http://localhost:3210

相关的key进入网页再配置,不必加入到docker run中。
申请deepseek之后,余额为0会一直回复无效,连给个第一次检测的token都没,一直以为我配置错了,狠狠吐槽。

调试,查看端口是否监听

netstat -tuln

小马算力接入

使用OpenAI的模型,输入自己的key和api,点击检查的时候报错,显示所有的可用模型:

{
  "error": "Invalid model: 未找到模型 'gpt-5-nano',可用模型: ['qwen3-32b', 'qwen3-8b', 'deepseek-v3-0324', 'deepseek-r1-0528', 'qwen3-coder-480b', 'glm-4.5', 'deepseek-v3.1', 'kimi-k2-instruct-0905', 'qwen3-next-instruct-svc', 'hunyuan-a13b-instruct']",
  "endpoint": "https://api.to****ny.cn/v1",
  "provider": "openai"
}

可以看到这个报错是未找到模型 'gpt-5-nano',那我们让他用支持的模型写入 模型列表 即可,直接在对话界面用,不检测。
img
输入对应的模型名称创建即可
img
把所有可用的都加入进去:
img
会在对话界面显示的
img

PS:没有对应模型也会报错。

实际上就是http协议的post请求,请求体中包含模型名称和api key 和模型名称。request即可。

posted @ 2025-09-19 09:18  潇汀  阅读(46)  评论(0)    收藏  举报