99%人不知道!5分钟突破FastGPT+BGE-M3本地大模型对接壁垒

🚀接上篇我们深度解析了《FastGPT与DeepSeek-R1的本地模型对接之路》,今天我们分享私有化向量模型BGE-M3+ FastGPT无缝接入技巧!还是熟悉的配方,但这次我们将直捣技术核心!**

直捣黄龙BGE-M3模型注入

🔥浏览器输入:http://ip:3000

🔥左侧边栏最底部点击[账号]→[模型提供商],点击右上角[模型配置]选项卡。

图片

核弹级参数配置

🔥点击[新增模型]→选择[索引模型],核心参数三连击。

图片

⚠️在Docker多容器架构中,localhost指向的是当前容器的回环地址,而非宿主机!✅[自定义请求地址]正确姿势!

http://172.17.0.1:11434/v1/embeddings

**

🔥当FastGPT容器调用Ollama服务时,若配置为localhost:11434,FastGPT容器实际上在请求自身,必然引发Connection error💡

深入原理(参考上篇《从崩溃到成功:深度解析FastGPT与DeepSeek-R1的本地模型对接之路》)。**

终极链路验证

🔥开启Ollama上帝视角(新开终端执行命令,右键清屏)

docker logs -f ollama --tail 50

🔥双保险验证法,点击[模型测试]→ 出现绿色✅弹窗→ 日志捕获 POST "/v1/embeddings"|200✅

图片

**


**

关注【IT技术工坊】下篇剧透 FastGPT+Ollama+deepseek R1:全民AI助手落地实战教程。

图片

**

posted @ 2025-03-18 09:01  IT技术工坊  阅读(199)  评论(0)    收藏  举报