东篱野鹤

导航

Pycharm+Ollama+DeepSeek+ProxyAI本地大模型辅助编程

Pycharm+Ollama+DeepSeek+ProxyAI

框架选型

1、          解释器选择pycharm社区版(免费)

1)下载地址https://www.jetbrains.com/pycharm/download/other.html

2)根据PC配置选择合适的版本进行安装(安装无特殊配置,直接“下一步”至安装完成)

 

2、          ollama管理大模型

简介地址:https://www.runoob.com/ollama/ollama-intro.html

1)下载地址:https://ollama.com/

 

安装时无其他特殊配置,一直“下一步”直到安装完成。

2)dos命令检查是否可用

 

 

3)常用命令

serve       Start ollama

 create      Create a model from a Modelfile

 show        Show information for a model

 run         Run a model     //调用大模型前,必须用此命令先启动服务

 stop        Stop a running model

 pull        Pull a model from a registry

 push        Push a model to a registry

 list        List models

 ps          List running models

 cp          Copy a model

 rm          Remove a model

 help        Help about any command

4)接口开发

默认的端口是11434,打开浏览器后,输入localhost:11434=> Ollama is running

 

示例代码

import requests
url = "http://localhost:11434/api/generate"
body = {
    "model":"deepseek-coder",
    "prompt":"用python写一个加法程序?",
    "stream":False
}
res = requests.post(url,json=body)
print("Response:",res.json()['response'])

  

返回结果

 

 

5)API参数(不同的api参数略有不同)

参考https://github.com/ollama/ollama/blob/main/docs/api.md

参数名

是否必填

描述

model

模型名称

prompt

需要生成响应的提示词

suffix

模型响应后追加的文本

images

Base64编码的图片列表(适用于多模态模型如llava)

format

返回响应的格式(可选值:json 或符合 JSON Schema 的结构)

options

模型额外参数(对应 Modelfile 文档中的配置如 temperature

system

自定义系统消息(覆盖 Modelfile 中的定义)

template

使用的提示词模板(覆盖 Modelfile 中的定义)

stream

设为 false 时返回单个响应对象而非流式对象

raw

设为 true 时不格式化提示词(适用于已指定完整模板的情况)

keep_alive

控制模型在内存中的保持时长(默认:5m)

context

(已弃用)来自前次 /generate 请求的上下文参数,用于维持短期对话记忆

 

3、          deepseek-coder

1) 使用ollama服务下载并部署模型

 

 

2) 查看已部署的大模型信息

 

 

3) 参数解释

架构(architecture): llama
表明该模型使用的是 llama 的架构。
参数量(parameters):1.3B
模型拥有 1.3 亿个参数,属于轻量级的大语言模型
上下文长度(context length):32768
该模型可以处理的最大上下文长度为 32768 个token,这使其非常适合处理长文本输入(例如文档摘要和代码生成)。
嵌入维度(embeddinglength):4096
该模型的词向量维度为 4096,表示其在输入文本向量化时采用高维表示,
量化方式(quantization):Q4_0
使用了四位量化(Q4_0),这是量化技术的一种形式,用于减小模型的存储需求和运行时内存占用,同时保留了较高的推理性能。

4、          proxyAI插件

在pycharm中调用大模型时需要的插件,原叫“CodeGPT”

1) 安装方式

Pycharm:file=>settings=>Plugins=>Marketplace:

搜索“proxy AI”

 

2) 插件配置

安装后在Pycharm:file=>settings=>Tools=>ProxyAI=>Providers

右侧页面中:Selected provider:Ollama(Local)

然后在路径:Pycharm:file=>settings=>Tools=>ProxyAI=>Providers=> Ollama(Local)参数默认即可

 

5、          大模型辅助编程的应用

1) 大模型本地部署并启动,插件安装完成可以进入使用大模型辅助编程

2) 在pycharm右侧边栏会出现proxyAI的图标,点击后会出现proxyAI的对话框

 

 

3) 在proxyAI对换框输入编程的需求,发送给大模型,即可返回相应的内容

4) 生成的代码直接导入指定的py文件指定的位置,然后对代码按需进行个性化编辑

 

 

posted on 2025-03-27 17:39  东篱野鹤  阅读(2011)  评论(0)    收藏  举报