websec80

  博客园  :: 首页  :: 新随笔  :: 联系 ::  :: 管理

Ollama环境搭建

首先我们需要安装Ollama,Ollama是一个用于本地管理和运行大模型的工具,能够简化模型的下载和调度操作。

进入Ollama官网(https://ollama.com)。

https://www.ollama.com/

https://github.com/ollama/ollama/releases/download/v0.5.7/OllamaSetup.exe

下载ollama框架

选择要安装的模型

接着返回Ollama官网,点击右上角的【Models】,再选择【deepseek-r1】。

然后命令行下载ollama模型中的deepseek-r1 

 下拉可以看到多个参数版本,数字越大,模型参数越多,性能越强,对显存要求越高。

 

安装模型

在Windows系统中,按下【Win+R】弹出如下窗口👇

输入【cmd】,点击【确定】,打开命令行

 

在命令行中粘贴刚才复制的命令,按下回车键后,系统会自动开始下载模型。

等待下载完成即可。

下载过程中若发现速度突然变慢,试着关闭命令行再重新打开。

模型默认存储在c:\user\用户\.ollama|下面

 

已经可以开始对话了   

 

接下来可以考虑安装  Open-WebUI(需要docker环境)、安装 cherry-ai.com/download  、安装 https://anythingllm.com/desktop  三种都可以选择

cherry-ai.com

可以添加自己的知识库  ollama pull shaw/dmeta-embedding-zh

 

anythingllm

Ollama Embedding Model   选择 nomic-embed-text:latest

 

 

posted on 2025-02-11 14:36  websec80  阅读(103)  评论(0)    收藏  举报