全部文章

RAGFlow(了解即可,效果不如Dify)

环境准备

1.下载ollama平台
ollama是一个用于本地运行和管理大语言模型(LLM)的工具。通过olama将DeepSeek模型下载到本地运行;

参照Dify

环境变量配置

由于RAGFlow是通过Docker部署的(在虚拟机里),而Ollama 是运行在本地电脑的,得让RAGFlow能访问Ollama 的服务。所以需要进行如下环境变量配置:

  • OLLAMA_HOST - 0.0.0.0:11434(0.0.0.0相当于在所有 IPv4 和 IPv6 地址上监听)
    作用:让虚拟机里的RAGFlow能够访问到本机上的 Ollama;
  • 如果配置后虚拟机无法访问,可能是你的本机防火墙拦截了端口11434;
  • 不想直接暴露 11434 端口:SSH 端口转发来实现;

OLLAMA_MODELS-自定义位置

  • 作用:ollama 默认会把模型下载到C盘,如果希望下载到其他盘需要进行配置;如:D:\data\ollamamodel

更新完两个环境变量记得重启电脑;

3.通过ollama下载模型deepseek-r1:1.5b

ollama run deepseek-r1:1.5b;

 

下载RAGflow源代码和Docker(参照Dify),通过Docker来本地部署RAGflow;

image

下载解压之后,修改配置文件,因为根据官方文档:https://github.com/infiniflow/ragflow/blob/main/README_zh.md说明,docker默认下载的是轻量版,不包含embedding模型,后续我们还要单独再去下载,很是麻烦,所以需要去配置文件按照官方文档修改配置,来现在完整版

image

image

image

配置完成后就可以在RagFlow的源码解压目录,执行doker命令安装RAGFlow了:

docker compose -f docker-compose.yml up -d

通过doker启动RAGFlow:

docker compose -f docker-compose.yml up -d

 停止所有容器运行:

docker compose -f docker/docker-compose.yml down -v

启动报错:

image

解决方案:

去这两个配置文件把端口改掉:

image

image

启动成功后,在浏览器输入localhost,即可访问:

http://localhost/login

image

登录即可:

1967610524@qq.com

qwe123!@#

RAGflow的配置

中文简体

image

image

模型配置

将上面通过ollama安装的deepseek添加进来:

首先在命令窗口使用ollama list查看所有的已安装的模型:

image

复制模型完整名称:deepseek-r1:1.5b

添加模型:

image

image

添加模型如果报错,请参考:https://blog.csdn.net/yuanjinshenglife/article/details/146166276,不过我完全按照此博客操作也照样报错:

image

最后,我是点击了最下面的“Vision”之后,自己就好了:

image

image

RAGflow的应用

在RAGflow中构建个人知识库并实现基于个人知识库的对话问答;

创建知识库

image

image

相关配置:

image

创建聊天

 

image

配置知识库

image

测试

image

不耐疲劳,口燥、咽干可能是哪些证候?

 

结论:

效果很一般,了解即可

只想迅速搭建个人知识库,可以不本地部署大模型吗?

当然可以!这样实现起来更简单,而且效果一般来说会更好;

具体步骤:

  1. 下载RAGFlow源代码和docker,通过docker本地部署RAGFoW(RAGFlow目前没有官方的网页版);
  2. 在RAGFlow中配置任意的Chat模型和Embedding模型(你需要到这些模型对应的官网去付费申请apiKey);

优点:

  • 不用本地部署大模型,简单易操作;企业大模型性能一般更优越;

缺点:

  • 隐私安全问题;
  • 调用企业大模型API的成本:

 

posted @ 2025-09-07 21:17  指尖下的世界  阅读(7)  评论(0)    收藏  举报