使用deepseek实现本地or远程部署搭建自己的AI

@[TOC](使用deepseek实现本地or远程部署搭建自己的AI )

# 一. 使用deepseek实现本地or远程部署搭建自己的AI

## 访问 Ollama 官方地址,并下载软件
- [Ollama官网地址](https://ollama.com/download)
> 建议下载最新版本 Ollama,个人踩坑经历:旧版本安装 R1 后可能无法正常使用。

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/5cbd0eb0065c48bd9780f3b1af3e2a34.png)
## 选择自己要安装的模型
> 双击运行 Ollama 后,打开命令行,运行需要安装的模型(参数越大,显存要求越高)
- [模型下载地址](https://ollama.com/library/deepseek-r1)

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/a1012a881aa04b128c73b8b1a13297bd.png)
### 下载模型选择建议
> 如果没有 GPU,建议选择 1.5B,运行相对轻量。我这 4G 显存 勉强能跑 8B,但速度较慢。

> 有朋友用 RTX 4090 测试 32B,效果和速度都不错。大家可以参考这个梯度,根据自己的硬件选择合适的模型。。
### 复制官网的命令即可,模型比较大,静静等待即可
> 注意
- 7B模型:至少8GB空闲内存
- 33B模型:至少32GB空闲内存

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/82ccbacd477a49da84e98318d979a3b1.png)

**DeepSeek-R1-Distill-Qwen-1.5B**
```js
ollama run deepseek-r1:1.5b
```
**DeepSeek-R1-Distill-Qwen-7B**

```js
ollama run deepseek-r1:7b
```

**DeepSeek-R1-Distill-Llama-8B**

```js
ollama run deepseek-r1:8b
```

**DeepSeek-R1-Distill-Qwen-14B**

```js
ollama run deepseek-r1:14b
```

**DeepSeek-R1-Distill-Qwen-32B**
```js
ollama run deepseek-r1:32b
```

**DeepSeek-R1-Distill-Llama-70B**

```js
ollama run deepseek-r1:70b
```
**DeepSeek-R1-Distill-Llama-671B**
```js
ollama run deepseek-r1:671b
```
### 查看已安装模型
```js
ollama list # 查看已安装模型
```
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/7df556d29cd149948627288b973847b6.png)
### 运行模型
```js
ollama run qwen2.5-coder:7b
ollama run deepseek-r1:7b
```
### 退出聊天框
```js
Ctrl+d
/bye
```
### 删除 模型
```js
ollama rm qwen2.5-coder:7b
```
## 搭配 Cherry Studio 的软件
- [Cherry Studio下载地址](https://cherry-ai.com/download)

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/0d2c58b214e944158bf5d40d6b0c30b9.png)
### 添加模型
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/88e0a2780aba4b6c85e47a2c702f71ad.png)
### 最后点击检查,测试下网络连通性,出现连接成功即可。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/241229045bbb4f678a403e8c37b85a81.png)
### 接下来就可以在添加助手时,选择本地部署的 R1 模型啦。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/9ce578f7a8ee473980032c203d8c3ce1.png)
### 再测试使用一下,搞定 ~
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/1a0670053b164d0a831594811c331a2e.png)
# 二. 实现远程部署使用
## 搭配 Cherry Studio 的软件
- [Cherry Studio下载地址](https://cherry-ai.com/download)

## 注册一个能够免费试用2000Token的邀请码
- [邀请注册地址](https://cloud.siliconflow.cn/i/3mxJyoH6)
- 或者填写邀请码: 3mxJyoH6
### 进入到页面进行api密钥的生成
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/009f952a394c4adea5a15eca7b3bd5c3.png)
### 来到 Cherry Studio,配置 API Key
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/b670b0cb49a94d7d8fb51c9763d467ef.png)
### 在模型广场首页,排在前两位的就是「硅基流动」和「华为云」合作发布的 DeepSeek R1 / V3 模型。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/3fbcc3721f894dd689325694a8e4990e.png)
### 在模型服务的硅基流动下方,添加 R1 模型。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/38d5cb20e5ad442a802cb84dfd4f9a76.png)
### 记得点击检查,测试下 API 是否可以正常访问。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/2a912fef403d48d6ace4e38e84aa62e4.png)
### 现在对话模型有了 R1,还缺少一个嵌入模型
> 嵌入模型的主要作用是将本地文件的内容转换成有意义的数字,存储到向量数据库中。
> 在用户提问时,利用 RAG 技术在数据库中搜索到相似答案,最终回复用户。
#### 我们再配置一个向量模型:BAAI/bge-m3。如果希望搜索的精准度更高,可以选择 Pro/BAAI/bge-m3。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/4814ff7c43824a089150120dfd9d8344.png)
#### 按照同样的方式配置到 Cherry Studio 中,这里不需要点击检查。

![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/8dcebdeede4b4973b0f594ca39f06fbf.png)
### 在 Cherry Studio 创建知识库,选择刚才配置的嵌入模型,这样就会自动利用对应的模型来向量化数据。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/4d6de38052404c7c9cce8d18c3003d6a.png)
### 上传本地文件进行向量化。
> 注意: 如果本地 PDF 文件是 扫描件、手写件,或者带有复杂的表格 和 数学公式,解析效果会很差,甚至无法解析。如何解决呢?
#### PDF 转结构化文档 的方案来使用
- [doc2x进行注册并上传pdf文件](https://doc2x.noedgeai.com/)
- [使用pdf_to_markdown进行转换](https://www.textin.com/market/detail/pdf_to_markdown)
### 当我们上传文件后,箭头指向的图标如图所示,则代表向量化成功。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/f18aa437368c400c8bf232479f40411a.png)
### 开始测试使用,, 开始添加助手,并选择刚配置的 满血 R1 模型
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/ea8ed3413e04452d846783ffbf564839.png)
### 如果不想每次在添加助手时选择模型,可以将它设置为 默认模型。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/7370ec8024134bc4bba12ed4e4215502.png)
### 我们来测试一下,发现 DeepSeek 已经开始深度思考了。
![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/94318375421a4d1d9bdcae5536e7768f.png)

posted @ 2025-02-08 10:26  王冠少年  阅读(149)  评论(0)    收藏  举报