养龙虾没token本地部署大模型轻松解决
养龙虾没token本地部署大模型轻松解决
1 ollama下载部署大模型

Ollama是一个「本地大模型运行工具」,开源免费、轻量简洁,能帮你在电脑上快速部署和运行MiniMax、Qwen、DeepSeek等上百款主流开源大模型。
# 官方地址
https://ollama.com/
# 下载地址
https://ollama.com/download
在安装Ollama时,默认会安装在C盘,可以通过下面方式自定义安装路径:
# 在cmd/powershell中执行下面命令
.\OllamaSetup.exe /DIR="D:\Your\Custom\Path" # 将D:\Your\Custom\Path替换为自己的安装路径
# 例
.\OllamaSetup.exe /DIR="E:\AI\Ollama"
执行命令

会弹出安装页面,点击Install一键安装

安装后界面

设置模型下载路径,默认C盘,修改到其他盘,防止C盘爆满。设置上下文为64K。

下载模型
# 搜索自己想要下载的模型
https://ollama.com/search
# 在cmd/powershell输入下面命令下载模型
ollama pull qwen3.5:0.8b
# 将 qwen3.5:0.8b 替换成你想下载的模型名称
下载完成界面

查看下载的模型
ollama list

常用命令
ollama pull # 下载模型
ollama run # 启动模型
ollama list # 查看本地已安装的所有模型
ollama rm # 模型名称:删除不需要的模型,释放存储空间
ollama show # 模型名称:查看模型的详细信息(参数、大小等)
ollama stop # 停止当前运行的模型和服务
ollama help # 查看所有命令的使用说明
2 openclaw配置本地模型
打开cmd/powershell终端执行下面命令
openclaw config
选择Local,本地使用

选择Model,模型

选择Ollama

默认回车即可

选择Local,本地

使用空格选择自己下载的模型回车

此时gateway会自动重启,不用管

选择Continue退出

打开C:\Users\waluna\.openclaw\openclaw.json文件修改默认模型
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3.5:0.8b",
保存后立即生效,在webui测试模型

本地大模型配置完成,再也不用担心token不够用了,数据也是完全本地存储,不怕隐私安全。
关于我
全网可搜《阿贤Linux》
CSDN、知乎、哔哩哔哩、博客园、51CTO、掘金、思否、阿里云、腾讯云、华为云、今日头条、百家号、GitHub、个人博客
公众号:阿贤Linux
个人博客:blog.waluna.top
https://blog.waluna.top/
原文链接: 养龙虾没token本地部署大模型轻松解决.
浙公网安备 33010602011771号