会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
岁月静好:寻觅在岁月静好的温柔里
四处走走,你会热爱这个世界
博客园
首页
新随笔
联系
订阅
管理
2025年2月24日
[nginx] 使用nginx代理实现Ollama支持本地html访问
摘要: Ollama 可以用来快速部署种种AI大模型、嵌入模型,比如 DeepSeek。 其自身也可以通过环境配置实现跨域支持,比如在 windows 中部署的 ollama,可以在环境变量中增加 OLLAMA_HOST=0.0.0.0:11434 来指定监听的网络端口和绑定的IP地址,OLLAMA_ORI
阅读全文
posted @ 2025-02-24 10:07 我爱我家喵喵
阅读(1120)
评论(0)
推荐(0)
公告