ubuntu部署ollama+llama+graphrag

一、部署ollama

1. 找到ollama安装的文档,使用手动安装方式;

https://github.com/ollama/ollama/blob/main/docs/linux.md

2. 根据系统的cpu和gpu选择对应的般本下载:

x86_64 CPU选择下载ollama-linux-amd64
x86_64 GPU选择下载ollama-linux-amd64-rocm
aarch64|arm64 CPU选择下载ollama-linux-arm64

我们的系统为带x86_64 GPU

curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz
解压缩:
sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgz

3. 修改配置文件,允许其他客户端调用,默认情况下ollama只能在本机上调用

vi /etc/systemd/system/ollama.service

点击查看配置
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
#ExecStart=/usr/bin/ollama serve
ExecStart=/usr/local/bin/ollama serve --host 0.0.0.0
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0:11434"

[Install]
WantedBy=default.target

curl http://127.0.0.1:11434/api/version

4. 运行ollama

ollama serve&

二、部署ollama

5. 下载llama3.3 70b模型

ollama pull llama3.3:70b

6. 查看模型文件存放路径:

ollama show --modelfile llama3.3:70b

点击查看代码
(python_3_10) root@sts-yj-pdih-0:~/data/sjk/ollama# ollama show --modelfile llama3.3:70b
[GIN] 2025/02/25 - 02:44:23 | 200 |      30.057µs |       127.0.0.1 | HEAD     "/"
[GIN] 2025/02/25 - 02:44:23 | 200 |   22.313843ms |       127.0.0.1 | POST     "/api/show"
# Modelfile generated by "ollama show"
# To build a new Modelfile based on this, replace FROM with:
# FROM llama3.3:70b

FROM /root/.ollama/models/blobs/sha256-4824460d29f2058aaf6e1118a63a7a197a09bed509f0e7d4e2efb1ee273b447d
TEMPLATE "{{- range .Messages }}<|start_header_id|>{{ .Role }}<|end_header_id|>

{{ .Content }}<|eot_id|>
{{- end }}<|start_header_id|>assistant<|end_header_id|>

"
PARAMETER stop <|start_header_id|>
PARAMETER stop <|end_header_id|>
PARAMETER stop <|eot_id|>

将上述模型存放到指定路径 /root/data/sjk,

cp /root/.ollama/models/blobs/sha256-4824460d29f2058aaf6e1118a63a7a197a09bed509f0e7d4e2efb1ee273b447d /root/data/sjk/llama3.3:70b.gguf
并在/root/data/sjk目录下创建model.txt,写入以下内容:
from ./llama3.3:70b.gguf

7. 创建模型

ollama create llama3.3:70b -f model.txt

8. 查看模型

ollama list

点击查看
(python_3_10) root@sts-yj-pdih-0:~/data/sjk# ollama list
NAME            ID              SIZE     MODIFIED
llama3.3:70b    5520fd28a084    42 GB    23 seconds ago

三 部署graphrag

1. 下载graphrag (指定版本v0.4.1),建议下载tag为v0.4.1的版本,不同版本配置不同

git clone -b v0.4.1 https://github.com/microsoft/graphrag.git

2. 进入graphrag目录,下载依赖包:

pip install -e .

3. 创建所需的目录

将数据文本文件放在这个路径下, 文件格式为txt, 注意:txt文件必须是utf-8编码的,可以多个文件。

mkdir -p ./ragtest/input

4. 初始化 ./ragtest 文件夹以创建所需的文件:

graphrag init --root ./ragtest
此时会在 ragtest 目录下生成 output,logs,setting.yaml,prompts,.env (默认隐藏)等目录及文件。setting.yaml 是配置文件,后面需要修改,output 是每次跑模型的结果,logs是运行日志。

5. 修改.env文件为如下内容:

GRAPHRAG_API_KEY=ollama
GRAPHRAG_CLAIM_EXTRACTION_ENABLED=True

6. 修改setting.yaml文件,修改的代码为:

点击查看代码
api_key: ollama
  model: llama3.1-32k
  api_base: http://localhost:11434/v1
 
api_key: ollama 
  model: nomic-embed-text
  api_base: http://localhost:11434/api
 
chunks:
  size: 300
 
snapshots:
  graphml: true
 

7. 参考博客修改源码

源代码修改

8. Running the Indexing pipeline

graphrag index --root ./ragtest

posted @ 2025-02-25 15:58  左青虫右白鼠  阅读(1086)  评论(0)    收藏  举报