Windows系统实现 Dify + Ollama + deepseek-r1 搭建本地 AI应用

本文章仅作为操作记录,并不是全面教程,只推荐有一定基础的开发人员阅读

大致流程分为以下几步,如果你要用在线大模型 API 也可以,直接到对应模型开放平台官网申请 API KEY 即可直接配置,无需4-5步的操作。

1、安装Docker
2、安装下载部署Dify
3、配置模型
4、下载Ollama
5、下载大模型
6、完成配置并调试

一、安装docker

先去 Docker官网 下载 Docker DesktopWindows 版本即可,然后安装的时候勾选一下 wls 。然后电脑需要开启虚拟等设置,自行百度不赘述。启动后这个软件界面长这样,我这里没登陆。你们是有加入团队、访问组织内部资源以及使用付费订阅功能的需求可以注册账号登录。

image

image

右上角设置配置一下镜像源,避免后续影响依赖下载,docker engine 里面可以设置。可以用我下面发的,自己去找镜像源也可以。

"registry-mirrors": ["https://registry.docker-cn.com", "https://s4uv0fem.mirror.aliyuncs.com", "https://docker.1ms.run", "https://registry.dockermirror.com", "https://docker.m.daocloud.io", "https://docker.kubesre.xyz", "https://docker.mirrors.ustc.edu.cn", "https://docker.1panel.live", "https://docker.kejilion.pro", "https://dockercf.jsdelivr.fyi", "https://docker.jsdelivr.fyi", "https://dockertest.jsdelivr.fyi", "https://hub.littlediary.cn", "https://proxy.1panel.live", "https://docker.1panelproxy.com", "https://image.cloudlayer.icu", "https://docker.1panel.top", "https://docker.anye.in", "https://docker-0.unsee.tech", "https://hub.rat.dev", "https://hub3.nat.tf", "https://docker.1ms.run", "https://func.ink", "https://a.ussh.net", "https://docker.hlmirror.com", "https://lispy.org", "https://docker.yomansunter.com", "https://docker.xuanyuan.me", "https://docker.mybacc.com", "https://dytt.online", "https://docker.xiaogenban1993.com", "https://dockerpull.cn", "https://docker.zhai.cm", "https://dockerhub.websoft9.com", "https://dockerpull.pw", "https://docker-mirror.aigc2d.com", "https://docker.sunzishaokao.com", "https://docker.melikeme.cn"]

image

二、安装下载部署Dify

Dify官网
Dify文档(详细介绍还是得看看文档)
项目地址(GitHub访问不了要开代理)

下载好的文件是一个叫 dify-main 的压缩包,解压并进入到 docker 文件夹内,把 .env.example 文件名改为 .env

然后也可以在这个文件里面改端口号,比如默认的80(http)、443(https)端口号,我这里分别改成7070和7443,默认端口号很容易被占(自行评估)。

# 容器内端口
NGINX_PORT=80
NGINX_SSL_PORT=443

# 对外访问端口
EXPOSE_NGINX_PORT=80
EXPOSE_NGINX_SSL_PORT=443

dify-main\docker 目录打开 cmd 命令行,输入下方命令,下载依赖和启动。

docker compose up -d

在 Docker Desktop 可以看到容器并且已经启动。

image

三、配置模型

访问默认 http://localhost/install 可以进入注册管理员界面。这里填邮箱账号密码(邮箱不一定要真实,反正都是本地的)。

注意:如果前面改了端口号也要访问对应端口号的地址

进到这个页面,有大模型 API KEY 的基本上就完成大部分内容了。(有钱真好=_=)

image

右上角设置里面,安装模型供应商,自行选择安装,因为我是本地部署大模型所以安装的 Ollama ,如果有其他在线大模型的直接安装好去到第六步。

image

四、下载Ollama

很高兴还能在这相遇hh

Ollama官网

下载 ollamaWindows 版本,然后安装。

image

五、下载大模型

下载对应的大模型(自行选择),如果电脑配置一般的不建议使用太好的模型(这玩意吃内存和显卡),我这里使用的 deepseek-r1:8bcmd 命令行输入下载启动,完成后可以访问 http://localhost:11434 看有没有启动成功。

ollama run deepseek-r1:8b

image

六、完成配置并调试

下载好模型供应商后,就可以开始配置模型。我这里配置的是 ollama 的,其他供应商也是直接填写对应模型在开放平台申请的 API KEY即可,这一步很简单,跟着要求配置即可。

模型名称(自行填写)、模型类型勾选 LLM 、基础URL 本机IP:11434 ,其他保持默认也可以。

image

回到 工作室 然后 创建空白应用,打开新手适用,新建聊天助手应用

image

进入这个页面,你就可以自行填写 提示词添加知识库,右上角模型选择刚刚配置的 deepseek 模型即可,完成后可以在右边输入测试了。

image

添加知识库可以按要求导入数据,这样AI应用就会根据知识库内容来回答。

image

image

不写代码的情况下,复制 Web App 下公开访问的 URL,就可以使用这个AI应用了,和平时使用的AI工具的UI界面差不多。

image

image

开发人员怎么使用这个AI应用,有两种方式:

  1. web嵌入网站(前端)

image

这里用最基础的 html 演示,你们如果用 vuereact 或者其他前端语言自行修改。

注意:之前改了端口号的,这里复制的地址端口也要改

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width, initial-scale=1.0">
    <title>Document</title>
</head>
<body>
<!-- 这里粘贴复制的代码 -->
</body>
</html>

双击打开 html,查看效果:

第一种样式
image

第二种样式
image

这两种就非常够用了,智能客服或者对话都可以这样使用,有其他需求就自己写前端页面吧。

  1. api对接(后端)

有对应的 api 文档,后端应该一看就懂。

image

如果是Java开发可以直接用 dify-spring-boot-starter 这老哥封装好了 API,在 Maven 中引入依赖,按要求添加配置应用参数就可以调 API 了。

先简单介绍到这里,后续有开发更好AI应用功能再补充。

posted @ 2025-11-27 16:00  启航黑珍珠号  阅读(0)  评论(0)    收藏  举报