在 CentOS 7 上搭建本地化工作流平台:类似 Coze 的开源方案部署指南
在 CentOS 7 上搭建本地化工作流平台:类似 Coze 的开源方案部署指南
在企业数字化转型过程中,工作流自动化工具扮演着越来越重要的角色。扣子(Coze)作为一款优秀的工作流平台,让用户可以通过拖拽节点快速编排业务流程,但受限于云端部署,部分对数据隐私要求较高的场景需要本地化方案。本文将详细介绍如何在 CentOS 7 系统上,通过 Ollama、Docker 和 Dify 搭建一套功能类似的本地化工作流平台。
一、方案选型:为什么选择 Dify + Ollama?
在本地化部署类似 Coze 的工作流平台时,我们需要解决三个核心问题:大模型能力支撑、可视化工作流编排、本地化部署可行性。经过对比多款开源工具,最终选择以下组合:
- Ollama:轻量级大模型运行框架,支持在本地快速部署 Llama 3、阿里千问等主流大模型,无需复杂配置。
- Dify:开源的 LLM 应用开发平台,提供可视化工作流编辑器、节点编排、模型集成等核心功能,完美匹配 Coze 的核心特性。
- Docker:容器化部署工具,简化 Dify 及其依赖组件的安装配置,确保环境一致性。
这套方案的优势在于:完全开源免费、本地化部署数据可控、支持自定义模型和节点扩展,适合企业或个人搭建私有工作流平台。
二、环境准备:硬件与系统要求
在开始部署前,请确保你的服务器满足以下条件:
硬件要求
- CPU:至少 4 核(推荐 8 核及以上,大模型推理对 CPU 性能敏感)
- 内存:最低 16GB(运行 Llama 3 7B 模型建议 32GB,更大模型需更高配置)
- 磁盘:至少 50GB 空闲空间(用于存储 Docker 镜像、模型文件和应用数据)
- 网络:能够访问互联网(用于下载软件包和模型)
系统要求
- 操作系统:CentOS 7.x(64 位)
- 已安装
git
版本控制工具 - 关闭或配置好防火墙(需开放 80、443、11434 等端口)
三、分步部署:从工具安装到平台运行
第一步:安装 Docker 与 Docker Compose
Docker 是部署 Dify 的基础,通过容器化方式统一管理应用依赖。
-
更新系统并安装依赖包:
sudo yum update -y sudo yum install -y yum-utils device-mapper-persistent-data lvm2
-
添加 Docker 官方仓库:
sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
-
安装 Docker 引擎:
sudo yum install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin
-
启动 Docker 服务并设置开机自启:
sudo systemctl start docker sudo systemctl enable docker
-
验证 Docker 安装成功:
sudo docker run hello-world # 成功会显示 "Hello from Docker!" 信息
第二步:安装 Ollama 运行大语言模型
Ollama 是连接大模型与 Dify 的桥梁,负责在本地提供模型推理能力。
-
下载并安装 Ollama:
curl https://ollama.com/install.sh | sh
-
启动 Ollama 服务并设置开机自启:
sudo systemctl start ollama sudo systemctl enable ollama
-
下载大语言模型(以 Llama 3 7B 为例):
ollama pull llama3 # 等待下载完成(约 4GB 左右,时间取决于网络速度)
如需其他模型,可在 Ollama 模型库 选择,例如
ollama pull qwen:7b
下载阿里千问模型。 -
验证模型是否可用:
ollama run llama3 # 进入交互模式,输入 "hello" 测试模型响应
第三步:部署 Dify 工作流平台
Dify 是核心应用,提供可视化工作流编辑、模型调用、节点管理等功能。
-
克隆 Dify 源代码到本地:
git clone https://github.com/langgenius/dify.git cd dify/docker # 进入 Docker 部署目录
-
配置环境变量:
cp .env.example .env # 复制示例配置文件
如需自定义端口或数据库配置,可编辑
.env
文件(默认配置即可满足基础使用)。 -
启动 Dify 服务:
sudo docker compose up -d # 后台启动所有组件
首次启动会下载多个 Docker 镜像,需耐心等待(约 10-20 分钟,取决于网络)。
-
检查 Dify 容器运行状态:
sudo docker ps # 若 STATUS 列显示 "Up" 则表示启动成功
第四步:配置防火墙与访问权限
确保外部能正常访问 Dify 平台和 Ollama 服务。
-
开放必要端口:
sudo firewall-cmd --permanent --add-port=80/tcp # Dify 网页访问端口 sudo firewall-cmd --permanent --add-port=11434/tcp # Ollama 服务端口 sudo firewall-cmd --reload # 重载防火墙配置
-
(可选)关闭 SELinux(避免权限问题):
sudo setenforce 0 # 临时关闭 sudo sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config # 永久关闭(需重启)
四、平台配置:连接模型与创建首个工作流
访问 Dify 平台
在浏览器中输入服务器 IP 地址(如 http://192.168.1.100
),首次访问会提示创建管理员账号,按步骤设置用户名和密码即可。
配置 Ollama 模型供应商
将 Dify 与本地 Ollama 模型连接,才能在工作流中调用大模型:
- 登录后点击右上角头像 → 系统设置 → 模型供应商。
- 在左侧列表选择 Ollama,点击 添加模型供应商。
- 配置参数:
- 名称:自定义(如 "本地 Ollama")
- 基础 URL:
http://localhost:11434
(Docker 容器内访问 Ollama 的地址) - 模型列表:选择已下载的模型(如
llama3
)
- 点击 测试连接,显示 "连接成功" 后保存配置。
创建首个工作流
验证平台功能是否正常,创建一个简单的工作流示例:
- 点击左侧导航 工作流 → 创建工作流 → 选择 空白工作流。
- 拖拽左侧节点到画布:添加一个 输入 节点、一个 LLM 调用 节点、一个 输出 节点。
- 连接节点:输入 → LLM 调用 → 输出。
- 配置 LLM 调用节点:选择刚才添加的 Ollama 模型,设置提示词模板(如 "总结以下内容:{{input}}")。
- 点击 保存 并 试运行,输入测试文本,查看工作流是否正常输出结果。
五、常见问题与优化建议
问题排查
- Dify 无法访问:检查 Docker 容器是否运行(
sudo docker ps
),防火墙是否开放 80 端口。 - 模型调用失败:确认 Ollama 服务正常运行(
sudo systemctl status ollama
),Dify 中 Ollama 的 URL 配置是否正确。 - 服务器卡顿:大模型推理消耗资源较高,可通过
top
命令查看内存和 CPU 使用情况,建议升级硬件或使用更小的模型。
优化建议
- 数据备份:定期备份 Dify 数据目录(
dify/data
),避免数据丢失。 - 模型选择:根据硬件性能选择合适的模型,入门推荐 Llama 3 7B 或 Qwen 7B,性能较好的服务器可尝试 13B 模型。
- 扩展功能:Dify 支持自定义节点和插件开发,可根据需求扩展工作流能力(如集成本地数据库、API 服务等)。
- HTTPS 配置:生产环境建议通过 Nginx 反向代理配置 SSL 证书,实现 HTTPS 访问。