摘要:
本地配置: cpu i3 10105 内存 DDR4 16G 无显卡 ollama 安装在C盘 anythingLLM 模型如下: deepseek_r1:8b bge-M3 可以上传,但RAG不行。 bge-large 对文档要求高,格式不对上传不成功 bge-large-zh-v1.5:late 阅读全文
posted @ 2025-02-13 16:22
金皮相
阅读(123)
评论(0)
推荐(0)
摘要:
感谢网上分享代码的同学 原理是ollama在pull 模型时,开始的一段时间会快,后面的时间速度就降下去了,代码的作用就是下载60秒,中断一下,再接着开始下载,变相保持下载速率 我这里速度现在能接受,改成120秒了。 while ($true) { # 检查模型是否已下载完成 $modelExist 阅读全文
posted @ 2025-02-13 16:06
金皮相
阅读(2042)
评论(0)
推荐(0)

浙公网安备 33010602011771号