青青园中葵,朝露待日晞。 阳春布德泽,万物生光辉。 常恐秋节至,焜黄华叶衰。 百川东到海,何时复西归? 少壮不努力,老大徒伤悲!

ollama+ open webUI 部署本地大模型

一、部署 ollama

1、windows 系统

注:win10以上

1.1 下载ollama

下载地址:https://ollama.com/download/windows

1.2 安装ollama

点击下载的exe文件执行安装

1.3 验证安装结果

打开cmd,输入 ollama -v

2、linux 系统

2.1 下载安装ollama

下载地址:https://ollama.com/download/linux

打开系统命令,复制上面的命令,执行

2.2 验证安装结果

输入命令 ollama -v

3、拉取模型


复制命令到命令窗口执行,等待下载完成

二、部署open webui

注:默认已安装好Docker
官方文档:https://docs.openwebui.com/

1、拉取 open webui 的镜像

docker pull ghcr.io/open-webui/open-webui:main

2、运行容器

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
# 卷映射(-v open-webui:/app/backend/data):确保您的数据持续存储。这样可以防止容器重新启动之间的数据丢失。
# 端口映射(-p 3000:8080):在您本地计算机的端口3000上公开WebUI。
# 对于NVIDIA GPU支持,请添加--gpus all到docker run命令:
docker run -d -p 3000:8080 --gpus all -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:cuda
# 如果 ollama 服务 不在本机
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

3、访问

http://localhost:3000

posted @ 2025-02-17 17:18  yhzou  阅读(703)  评论(0)    收藏  举报