linux系统部署deepseek大模型

随着AI Deepseek大模型的发展,在企业内部都在进行落地、集群部署,大模型集群构建成功,如何实现统一访问呢?可以引入Nginx+Deepseek大模型负载均衡集群。

首先要部署Deepseek大模型,需借助Ollama模型框架,通过Ollama模型框架去拉取Deepseek模型。部署Ollama+Deepseek方法和指令如下:

#从Ollama官网下载软件包;
ls -l ollama-linux-amd64.tgz
#创建Ollama程序部署目录
mkdir -p /usr/local/ollama/ #通过Tar工具对其解压;(-x extract解压,-z gzip压缩格式,-v verbose详细显示,-f file文件属性)
tar -xzvf ollama-linux-amd64.tgz -C /usr/local/ollama/ #查看Ollama程序是否部署成功
ls -l /usr/local/ollama/ #将Ollama程序bin目录加入到PATH环境变量中
cat>>/etc/profile<<EOF export PATH=\$PATH:/usr/local/ollama/ EOF #使其PATH环境变量重新生效
source /etc/profile #启动Ollama服务进程
nohup /usr/local/ollama/bin/ollama serve & #查看Ollama进程状态
ps -ef|grep -aiE ollama #查看Ollama服务端口; ss -tnlp|grep -aiwE 11434

根据如上Ollama程序指令操作,Ollama软件服务部署成功,查看其进程和端口,如图所示:

 

posted @ 2025-02-19 14:55  羊脂玉净瓶  阅读(55)  评论(0)    收藏  举报