如何在本地跑大模型?

先上地址 https://github.com/ollama/ollama/tree/main

官网 https://ollama.com/

下载

运行,然后会默认下载

ollama run llama2

选择不同的model

ui交互

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v ollama-webui:/app/backend/data --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main

posted @ 2024-03-28 10:36  朝阳1  阅读(83)  评论(0)    收藏  举报