在Wndows下用Ollama部署Deepseek
一、部署环境
1. 计算机配置:I3-2105集成显卡,16G内存,120G SSD
2. 操作系统:Windows 10 64位
二、文件下载
1. Ollama下载
从 https://ollama.com/download 下载Windows版的安装程序,默认安装;
从默认安装目录()拷贝所有文件到 D:\Project\Ollama 目录下,新建 models 目录;
在系统环境变量的 Path 下增加 “D:\Project\Ollama\ ”,新建 “OLLAMA_MODELS” 变量 " D:\Project\Ollama\models";
2. Deepseek models下载
从 https://ollama.com/library/deepseek-r1 找到 7b(ollama run deepseek-r1:7b)和14b(ollama run deepseek-r1:14b);
使用 Win+R 打开 cmd,输入 ollama list,查看已安装模型,如果没有安装,请使用命令 ollama run deepseek-r1:7b 和 ollama run deepseek-r1:14b 进行安装;
安装时间根据模型大小耗时不等,完成后会提示 success 字样;
三、Deepseek使用
1. 命令行方式:输入 ollama run deepseek-r1:7b,根据提示操作;
2. chatbox / ollama-webui-lite 方式
推荐 ollama-webui-lite 方式!
1)下载 node.js-22.13.1.0(https://nodejs.org/zh-cn)和 ollama-webui-lite(https://github.com/ollama-webui/ollama-webui-litehuoz 或者 https://gitcode.com/gh_mirrors/ol/ollama-webui-lite?utm_source=artical_gitcode&index=top&type=href&)
2)在系统环境变量的 Path 下增加 “D:\Project\nodejs-22.13.1.0\ ”;
3)打开 “D:\Project\Ollama\ollama-webui-lite” 目录,打开 cmd,运行 “npm install” 安装依赖,运行 “npm run dev“ 运行服务;
正常提示如下:
> ollama-webui-lite@0.0.1 dev > vite dev --host --port 3000 VITE v4.5.2 ready in 2898 ms
➜ Local: http://localhost:3000/ ➜ Network: http://192.168.5.108:3000/ ➜ press h to show help
4)在浏览器在打开 http://localhost:3000/ 开始使用
        
                    
                
                
            
        
浙公网安备 33010602011771号