在 CentOS 7 上搭建本地化工作流平台:类似 Coze 的开源方案部署指南

在 CentOS 7 上搭建本地化工作流平台:类似 Coze 的开源方案部署指南

在企业数字化转型过程中,工作流自动化工具扮演着越来越重要的角色。扣子(Coze)作为一款优秀的工作流平台,让用户可以通过拖拽节点快速编排业务流程,但受限于云端部署,部分对数据隐私要求较高的场景需要本地化方案。本文将详细介绍如何在 CentOS 7 系统上,通过 Ollama、Docker 和 Dify 搭建一套功能类似的本地化工作流平台。

一、方案选型:为什么选择 Dify + Ollama?

在本地化部署类似 Coze 的工作流平台时,我们需要解决三个核心问题:大模型能力支撑可视化工作流编排本地化部署可行性。经过对比多款开源工具,最终选择以下组合:

  • Ollama:轻量级大模型运行框架,支持在本地快速部署 Llama 3、阿里千问等主流大模型,无需复杂配置。
  • Dify:开源的 LLM 应用开发平台,提供可视化工作流编辑器、节点编排、模型集成等核心功能,完美匹配 Coze 的核心特性。
  • Docker:容器化部署工具,简化 Dify 及其依赖组件的安装配置,确保环境一致性。

这套方案的优势在于:完全开源免费、本地化部署数据可控、支持自定义模型和节点扩展,适合企业或个人搭建私有工作流平台。

二、环境准备:硬件与系统要求

在开始部署前,请确保你的服务器满足以下条件:

硬件要求

  • CPU:至少 4 核(推荐 8 核及以上,大模型推理对 CPU 性能敏感)
  • 内存:最低 16GB(运行 Llama 3 7B 模型建议 32GB,更大模型需更高配置)
  • 磁盘:至少 50GB 空闲空间(用于存储 Docker 镜像、模型文件和应用数据)
  • 网络:能够访问互联网(用于下载软件包和模型)

系统要求

  • 操作系统:CentOS 7.x(64 位)
  • 已安装 git 版本控制工具
  • 关闭或配置好防火墙(需开放 80、443、11434 等端口)

三、分步部署:从工具安装到平台运行

第一步:安装 Docker 与 Docker Compose

Docker 是部署 Dify 的基础,通过容器化方式统一管理应用依赖。

  1. 更新系统并安装依赖包:

    sudo yum update -y
    sudo yum install -y yum-utils device-mapper-persistent-data lvm2
    
  2. 添加 Docker 官方仓库:

    sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
    
  3. 安装 Docker 引擎:

    sudo yum install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin
    
  4. 启动 Docker 服务并设置开机自启:

    sudo systemctl start docker
    sudo systemctl enable docker
    
  5. 验证 Docker 安装成功:

    sudo docker run hello-world  # 成功会显示 "Hello from Docker!" 信息
    

第二步:安装 Ollama 运行大语言模型

Ollama 是连接大模型与 Dify 的桥梁,负责在本地提供模型推理能力。

  1. 下载并安装 Ollama:

    curl https://ollama.com/install.sh | sh
    
  2. 启动 Ollama 服务并设置开机自启:

    sudo systemctl start ollama
    sudo systemctl enable ollama
    
  3. 下载大语言模型(以 Llama 3 7B 为例):

    ollama pull llama3  # 等待下载完成(约 4GB 左右,时间取决于网络速度)
    

    如需其他模型,可在 Ollama 模型库 选择,例如 ollama pull qwen:7b 下载阿里千问模型。

  4. 验证模型是否可用:

    ollama run llama3  # 进入交互模式,输入 "hello" 测试模型响应
    

第三步:部署 Dify 工作流平台

Dify 是核心应用,提供可视化工作流编辑、模型调用、节点管理等功能。

  1. 克隆 Dify 源代码到本地:

    git clone https://github.com/langgenius/dify.git
    cd dify/docker  # 进入 Docker 部署目录
    
  2. 配置环境变量:

    cp .env.example .env  # 复制示例配置文件
    

    如需自定义端口或数据库配置,可编辑 .env 文件(默认配置即可满足基础使用)。

  3. 启动 Dify 服务:

    sudo docker compose up -d  # 后台启动所有组件
    

    首次启动会下载多个 Docker 镜像,需耐心等待(约 10-20 分钟,取决于网络)。

  4. 检查 Dify 容器运行状态:

    sudo docker ps  # 若 STATUS 列显示 "Up" 则表示启动成功
    

第四步:配置防火墙与访问权限

确保外部能正常访问 Dify 平台和 Ollama 服务。

  1. 开放必要端口:

    sudo firewall-cmd --permanent --add-port=80/tcp  # Dify 网页访问端口
    sudo firewall-cmd --permanent --add-port=11434/tcp  # Ollama 服务端口
    sudo firewall-cmd --reload  # 重载防火墙配置
    
  2. (可选)关闭 SELinux(避免权限问题):

    sudo setenforce 0  # 临时关闭
    sudo sed -i 's/SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config  # 永久关闭(需重启)
    

四、平台配置:连接模型与创建首个工作流

访问 Dify 平台

在浏览器中输入服务器 IP 地址(如 http://192.168.1.100),首次访问会提示创建管理员账号,按步骤设置用户名和密码即可。

配置 Ollama 模型供应商

将 Dify 与本地 Ollama 模型连接,才能在工作流中调用大模型:

  1. 登录后点击右上角头像 → 系统设置模型供应商
  2. 在左侧列表选择 Ollama,点击 添加模型供应商
  3. 配置参数:
    • 名称:自定义(如 "本地 Ollama")
    • 基础 URL:http://localhost:11434(Docker 容器内访问 Ollama 的地址)
    • 模型列表:选择已下载的模型(如 llama3
  4. 点击 测试连接,显示 "连接成功" 后保存配置。

创建首个工作流

验证平台功能是否正常,创建一个简单的工作流示例:

  1. 点击左侧导航 工作流创建工作流 → 选择 空白工作流
  2. 拖拽左侧节点到画布:添加一个 输入 节点、一个 LLM 调用 节点、一个 输出 节点。
  3. 连接节点:输入 → LLM 调用 → 输出。
  4. 配置 LLM 调用节点:选择刚才添加的 Ollama 模型,设置提示词模板(如 "总结以下内容:{{input}}")。
  5. 点击 保存试运行,输入测试文本,查看工作流是否正常输出结果。

五、常见问题与优化建议

问题排查

  1. Dify 无法访问:检查 Docker 容器是否运行(sudo docker ps),防火墙是否开放 80 端口。
  2. 模型调用失败:确认 Ollama 服务正常运行(sudo systemctl status ollama),Dify 中 Ollama 的 URL 配置是否正确。
  3. 服务器卡顿:大模型推理消耗资源较高,可通过 top 命令查看内存和 CPU 使用情况,建议升级硬件或使用更小的模型。

优化建议

  1. 数据备份:定期备份 Dify 数据目录(dify/data),避免数据丢失。
  2. 模型选择:根据硬件性能选择合适的模型,入门推荐 Llama 3 7B 或 Qwen 7B,性能较好的服务器可尝试 13B 模型。
  3. 扩展功能:Dify 支持自定义节点和插件开发,可根据需求扩展工作流能力(如集成本地数据库、API 服务等)。
  4. HTTPS 配置:生产环境建议通过 Nginx 反向代理配置 SSL 证书,实现 HTTPS 访问。
posted @ 2025-07-14 21:07  昵-称  阅读(319)  评论(0)    收藏  举报