在vscode中集成本地开源AI大模型

continue + ollama
continue:vscode插件
image

ollama:官网下载https://ollama.com/
可供选择多种模型,根据自己电脑配置去选择对应的模型(本人使用qwen3-8b,该模型后台占运存大约6G,大参数模型都是在15-20G)
image
常见模型对比

模型 MMLU (通用知识) HumanEval (代码生成) GSM8K (数学推理) SWE-Bench (代码修复) 其他亮点/弱点
Qwen3-30B-A3B 89.3 85.0 95.1 53.6 多语言强(HumanEval-XL 支持 20+ 语言);LiveCodeBench 43.2%;弱于超长上下文复杂任务
GPT-OSS-20B 85.0 75.0 89.2 ~60.0 推理速度快;
Llama 3.1 70B 86.0 81.0 96.8 45.0 平衡性好;
Qwen 2.5 72B 84.0 82.5 94.5 48.0 前代;Qwen3 整体提升 5-10%
Mistral Large 123B 84.0 85.0 92.0 55.0 工具调用强;
o3-mini (闭源) 85.5 78.0 90.0 ~62.0 代理任务稳

具体配置步骤如下(qwen3-8b):

  1. 安装ollama
  • macOS:brew install ollama
  • Linux:curl -fsSL https://ollama.ai/install.sh | sh
  • Windows:从 ollama.com 下载安装。
  • 验证:运行 ollama --version。
  • 启动服务:ollama serve(后台运行),检查 curl http://localhost:11434(返回 “Ollama is running”)。
  1. 拉取小模型
  • 在cmd/powershell下执行 ollama pull qwen3:8b 拉取小模型
  • ollama list 查看列表
  • 执行ollama run qwen3:8b进行测试,输入hello,看是否有回应,然后让它生成一段简单代码试试
  1. 配置 config.yaml
  • 将vscode中ctrl+l 打开continue,找到config文件或者Ctrl + Shift + P > “Continue: Open Config” > 编辑 ~/.continue/config.yaml:
    name: Qwen3-8B Local Config
    version: 0.0.1
    schema: v1
    models:
      - name: Qwen3-8B
        provider: ollama
        model: qwen3:8b  
        roles: [chat, autocomplete, edit]
        apiBase: http://localhost:11434
    

5.保存退出,重新打开
6.选中部分代码,按ctrl+l 分析代码 ctrl+i自动编辑代码

posted @ 2025-11-04 11:29  artemis_diana  阅读(4)  评论(0)    收藏  举报