遇一山,过一山,处处有风景;只要勇敢向前,一路尽是繁花盛开。 | (点击查看→)【测试干货】python/java自动化、持续集成、性能、测开、简历、笔试面试等

本地部署deepseek

前言

 

如果你电脑配置不错,且期望不受网络限制也可以流畅使用deepseek,那就本地部署deepseek试试吧。

 

下载并安装Ollama

Ollama是一个开源的 LLM(大型语言模型)服务工具(就是大模型运行工具),用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型。

地址:https://ollama.com/

 

根据自己电脑系统类型下载

 

这里要科雪上网下载(可以私信推荐稳定的科雪上网方式)

https://github.com/ollama/ollama/releases/latest/download/OllamaSetup.exe

 

 

双击安装

 

 

安装完成后,右下角隐藏的图标中可以看到如下图标

 

部署deepseekR1模型

从左到右,越来越精准,对电脑配置也依次变高

 

 

这里只是演示,选择1.5b

 

复制右侧命令

 

cmd中执行刚刚复制的命令:ollama run deepseek-r1:1.5b

 

 

 

然后可以输入问题获取回复结果

 

下载、安装、配置chatbox可视化对话框

上面每次都要在cmd中输入运行命令,比较麻烦,我们可以用chatbox可视化对话框。

下载:https://chatboxai.app/zh

 

安装

 

配置

 

选择模型提供方:OLLAMA API

选择模型:deepseek-r1:1.5b

然后点击“保存”

 

然后就可以在chatbox中输入问题了

 

是不是很简单?赶紧试试吧。

 

posted @ 2025-02-02 23:10  全栈测试笔记  阅读(12864)  评论(0)    收藏  举报
浏览器标题切换
浏览器标题切换end