会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
qcy-blog
博客园
首页
新随笔
联系
订阅
管理
2024年3月28日
如何在本地跑大模型?
摘要: 先上地址 https://github.com/ollama/ollama/tree/main 官网 https://ollama.com/ 下载 运行,然后会默认下载 ollama run llama2 选择不同的model ui交互 docker run -d -p 3000:8080 --ad
阅读全文
posted @ 2024-03-28 10:36 朝阳1
阅读(84)
评论(0)
推荐(0)
公告