在Wndows下用Ollama部署Deepseek

一、部署环境

  1. 计算机配置:I3-2105集成显卡,16G内存,120G SSD

  2. 操作系统:Windows 10 64位    

二、文件下载

  1. Ollama下载

    从 https://ollama.com/download 下载Windows版的安装程序,默认安装;

    从默认安装目录()拷贝所有文件到 D:\Project\Ollama 目录下,新建 models 目录;

    在系统环境变量的 Path 下增加 “D:\Project\Ollama\ ”,新建 “OLLAMA_MODELS” 变量 " D:\Project\Ollama\models";

  2. Deepseek models下载

    从 https://ollama.com/library/deepseek-r1 找到 7b(ollama run deepseek-r1:7b)和14b(ollama run deepseek-r1:14b);

    使用 Win+R 打开 cmd,输入 ollama list,查看已安装模型,如果没有安装,请使用命令 ollama run deepseek-r1:7b 和 ollama run deepseek-r1:14b 进行安装;

    安装时间根据模型大小耗时不等,完成后会提示 success 字样;

三、Deepseek使用

    1. 命令行方式:输入 ollama run deepseek-r1:7b,根据提示操作;

    2. chatbox / ollama-webui-lite 方式

      推荐 ollama-webui-lite 方式!

      1)下载 node.js-22.13.1.0(https://nodejs.org/zh-cn)和  ollama-webui-lite(https://github.com/ollama-webui/ollama-webui-litehuoz 或者 https://gitcode.com/gh_mirrors/ol/ollama-webui-lite?utm_source=artical_gitcode&index=top&type=href&)

      2)在系统环境变量的 Path 下增加 “D:\Project\nodejs-22.13.1.0\ ”;

      3)打开 “D:\Project\Ollama\ollama-webui-lite” 目录,打开 cmd,运行 “npm install” 安装依赖,运行 “npm run dev“ 运行服务;

  正常提示如下:

> ollama-webui-lite@0.0.1 dev
> vite dev --host --port 3000

  VITE v4.5.2  ready in 2898 ms
➜ Local: http:
//localhost:3000/ ➜ Network: http://192.168.5.108:3000/ ➜ press h to show help

      4)在浏览器在打开 http://localhost:3000/ 开始使用

        

 

posted on 2025-04-14 17:08  =WinHZ  阅读(11)  评论(0)    收藏  举报

导航