养龙虾没token本地部署大模型轻松解决

养龙虾没token本地部署大模型轻松解决

1 ollama下载部署大模型

Ollama是一个「本地大模型运行工具」,开源免费、轻量简洁,能帮你在电脑上快速部署和运行MiniMax、Qwen、DeepSeek等上百款主流开源大模型。

# 官方地址
https://ollama.com/
# 下载地址
https://ollama.com/download

在安装Ollama时,默认会安装在C盘,可以通过下面方式自定义安装路径:

# 在cmd/powershell中执行下面命令
.\OllamaSetup.exe /DIR="D:\Your\Custom\Path"   # 将D:\Your\Custom\Path替换为自己的安装路径

# 例
.\OllamaSetup.exe /DIR="E:\AI\Ollama"

执行命令

会弹出安装页面,点击Install一键安装

安装后界面

设置模型下载路径,默认C盘,修改到其他盘,防止C盘爆满。设置上下文为64K。

下载模型

# 搜索自己想要下载的模型
https://ollama.com/search

# 在cmd/powershell输入下面命令下载模型
ollama pull qwen3.5:0.8b

# 将 qwen3.5:0.8b 替换成你想下载的模型名称

下载完成界面

查看下载的模型

ollama list

常用命令

ollama pull   # 下载模型
ollama run    # 启动模型
ollama list   # 查看本地已安装的所有模型
ollama rm     # 模型名称:删除不需要的模型,释放存储空间
ollama show   # 模型名称:查看模型的详细信息(参数、大小等)
ollama stop   # 停止当前运行的模型和服务
ollama help   # 查看所有命令的使用说明

2 openclaw配置本地模型

打开cmd/powershell终端执行下面命令

openclaw config

选择Local,本地使用

选择Model,模型

选择Ollama

默认回车即可

选择Local,本地

使用空格选择自己下载的模型回车

此时gateway会自动重启,不用管

选择Continue退出

打开C:\Users\waluna\.openclaw\openclaw.json文件修改默认模型

  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3.5:0.8b",

保存后立即生效,在webui测试模型

本地大模型配置完成,再也不用担心token不够用了,数据也是完全本地存储,不怕隐私安全。


关于我
全网可搜《阿贤Linux》
CSDN、知乎、哔哩哔哩、博客园、51CTO、掘金、思否、阿里云、腾讯云、华为云、今日头条、百家号、GitHub、个人博客
公众号:阿贤Linux
个人博客:blog.waluna.top
https://blog.waluna.top/


原文链接: 养龙虾没token本地部署大模型轻松解决.

posted @ 2026-04-04 18:31  阿贤Linux  阅读(14)  评论(0)    收藏  举报