如何在本地跑大模型?
先上地址 https://github.com/ollama/ollama/tree/main
官网 https://ollama.com/
下载

运行,然后会默认下载
ollama run llama2

选择不同的model

ui交互
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v ollama-webui:/app/backend/data --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main


浙公网安备 33010602011771号