RagFlow本地部署使用

文章目录
前言
一、RAGFlow的安装和部署
1.安装
2.注册登录
二、添加模型
1.配置 Ollama 连接大模型
2.配置Xinference连接大模型
三、知识库使用
1.创建知识库
2.上传文件解析
四、聊天
前言
开源RAGFlow引擎:打造无幻觉、高精度的文档理解与生成体验

RAGflow,这个新兴的开源RAG(Retrieval-Augmented Generation)引擎,正以其独特的深度文档理解能力,为大型语言模型的应用带来了革命性的变革。在处理PDF文件时,我们经常面临提取干净数据的挑战,而RAGFlow的出现,恰恰解决了这一问题,它能够提供准确无误且无幻觉的生成结果。

github地址:https://github.com/infiniflow/ragflow
官网文档:https://infiniflow.cn/docs/dev/

一、RAGFlow的安装和部署
前置条件

CPU >= 4 核
内存 >= 16 GB
硬盘 >= 50 GB
Docker版本 >= 24.0.0 & Docker Compose >= v2.26.1
1.安装
克隆仓库

git clone https://github.com/infiniflow/ragflow.git
1
运行以下命令会自动下载开发版本的RAGFlow Docker映像。要下载并运行指定的Docker版本,请在运行以下命令之前,将docker/.env中的RAGFLOW_VERSION更新到预期版本,例如RAGFLOW_VERSION=v0.7.0。

构建预建的Docker映像并启动服务器

cd ragflow/docker
chmod +x ./entrypoint.sh
docker compose up -d
1
2
3
如果你本地安装了redis或minio可能出现端口占用问题,修改.env中的配置信息即可

核心映像的大小约为9 GB,可能需要一段时间才能加载。

服务器启动成功后再次确认服务器状态:

docker logs -f ragflow-server
1
以下输出证实了系统的成功启动:

____ ______ __
/ __ \ ____ _ ____ _ / ____// /____ _ __
/ /_/ // __ `// __ `// /_ / // __ \| | /| / /
/ _, _// /_/ // /_/ // __/ / // /_/ /| |/ |/ /
/_/ |_| \__,_/ \__, //_/ /_/ \____/ |__/|__/
/____/

* Running on all addresses (0.0.0.0)
* Running on http://127.0.0.1:9380
* Running on http://x.x.x.x:9380
INFO:werkzeug:Press CTRL+C to quit
1
2
3
4
5
6
7
8
9
10
11
这里注意,安装完成后并不是要进入 下面两个地址

http://127.0.0.1:9380
http://172.18.0.6:9380
而是要进入:http://localhost:80 先注册账号,是下面这个页面

2.注册登录
在上图的界面中注册,然后登录就来到下面这个页面了


二、添加模型
1.配置 Ollama 连接大模型
如下图我们先配置模型,点击右上角头像,再点击模型提供商

点击Ollama添加模型,填写模型信息。
如果ollama是在本机的话docker访问宿主机url为:http://host.docker.internal:11434


2.配置Xinference连接大模型
点击Xinference配置模型,填写模型信息


三、知识库使用
1.创建知识库
点击创建知识库,输入知识库名称。

 

2.上传文件解析
在数据集中,点击新增文件,选择文件后选择上传。

点击开始按钮进行解析

在解析方法中可以配置分段标识符、解析方法等信息。


四、聊天
在聊天模块中点击新建助理,填写信息,选择知识库。在模型设置中配置模型信息。

输入想根据知识库提问的问题。效果如下:

聊天API

 


————————————————

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

原文链接:https://blog.csdn.net/qq_43548590/article/details/143323919

posted on 2025-02-27 17:03  ExplorerMan  阅读(4415)  评论(0)    收藏  举报

导航