使用deepseek搭建本地api翻译服务
1 Ollama安装
访问地址 https://ollama.com/
下载windows版本,默认安装到c盘不可选择其它的路径,这点比较坑。
但是你可以切换模型的路径这里修改为d:/models_path,变量名为:OLLAMA_MODELS,如图所示

验证变量值:echo %OLLAMA_MODELS%
Ollama安装后默认为随系统启动。
2 下载模型
这里选择deepseek 7b
访问地址 https://ollama.com/library/deepseek-r1
命令行中运行以下命令,拉取deepseek R1 7b 模型。
ollama run deepseek-r1:7b

3 接口请求
请求地址 http://localhost:11434/api/chat
4 相关命令
删除模型 ollama rm xxx
拉取模型 ollama run xxx
列出所有模型 ollama list
不行,机器response非常慢30s以上,需要换模型,再就是deepseek有思考功能也影响执行速度。
ollama run qwen2.5:7b
请求参数
{ 	"model": "qwen2.5:7b",     "messages": [         {             "role": "system",             "content": "Translate"         },         {             "role": "user",             "content": "Translate the following english text to chinese. Output the translation only without any explanations or additional context:\n Apple"          }     ],     "stream": false }
使用postman请求效果:

                    
                
                
            
        
浙公网安备 33010602011771号