摘要: 基于GPU在本地部署ggerganov/llama.cpp: LLM inference in C/C++ (github.com) 下载llama.cpp git clone git@github.com:ggerganov/llama.cpp.git cd llama.cpp 编译GPU环境的程 阅读全文
posted @ 2024-03-19 12:47 ckxkexing 阅读(99) 评论(0) 推荐(0) 编辑