1

服务器侧简单测试大模型问答实现

🚩基于A100服务器简单测试大模型

A100服务器具备python环境,可以联网,VScode直连服务器

安装ollama工具, pip install ollama
image

使用ollama下载大模型

本实例安装的是deepseek-r1:7b
image

简单实现网上案例

from ollama import chat
messages = [
  {
    'role': 'user',
    'content': '欠薪了怎么办?',
  },
]

response = chat('deepseek-r1:7b', messages=messages)
print(response['message']['content'])

image
结果展示:
image

在终端实现大模型

直接在终端运行ollama run deepseek-r1:7b,就会给出,问答界面
image
则展示结果如下:
image

浏览器侧布置UI界面

首先先安装Node.js,安装成功后,在cmd下验证,如下图
image
还需要安装Git,Git主要用来从github下拉代码,或者代码管理,然后执行
git clone https://github.com/ollama-webui/ollama-webui-lite ollama-webui或者直接下载压缩包,然后解压也可以。
完成下拉代码后,cmd cd进入ollama-webui,执行命令npm config set registry http://mirrors.cloud.tencent.com/npm/npm install,
image
执行命令npm run dev
image

后面就可以直接在浏览器打开了
image
因为我安装的是qwen3:latest模型,因此这里就是显示这个模型
image
下面就可以进行问答了。

服务器安装 ollama-webui-lite在浏览器呈现

执行命令git clone https://github.com/ollama-webui/ollama-webui-lite.git下拉ollama-webui-lite代码。
执行命令npm cinpm run dev
image
如果想修改端口的话,执行命令npm run dev -- --port 8082将默认端口改为8082.
image
就可以进行问答了。
image

posted @ 2025-08-06 09:18  Bonne_chance  阅读(9)  评论(0)    收藏  举报
1