Opencode CLI 配置 MiniMax M2 (Nvidia API) 指南
Opencode CLI 配置 MiniMax M2 (Nvidia API) 指南
本文档详细介绍如何在 opencode CLI 中配置和使用 Nvidia 托管的 MiniMax M2 大模型。
1. 申请 NVIDIA API Key
要使用 MiniMax M2 模型,您首先需要从 NVIDIA NIM 平台获取免费的 API Key。
申请步骤:
- 访问模型页面:打开浏览器访问 MiniMax M2 模型主页。
- 登录/注册:点击页面右上角的 "Login" 按钮。如果已有 NVIDIA 账号可直接登录,否则请先注册。
- 获取 API Key:
- 登录成功后,在模型页面找到 "Get API Key" 按钮(通常在页面顶部或 "Input/Output" 演示区域附近)。
- 点击后系统会生成一个以
nvapi-开头的密钥。
- 复制保存:点击 "Copy" 按钮将密钥保存到安全的地方。此 Key 将用于后续配置。
参考资料:
2. 核心配置信息
在配置 opencode 或任何支持 OpenAI 兼容协议的工具时,请使用以下参数:
| 参数项 | 值 |
|---|---|
| Provider Type | OpenAI Compatible |
| Base URL | https://integrate.api.nvidia.com/v1 |
| API Key | nvapi-XXX (示例) |
| Model Name | minimaxai/minimax-m2 |
注意:请将示例 API Key 替换为您在第 1 步中申请到的真实 Key。
3. 接口连通性验证
在正式配置前,建议运行以下 Python 脚本以确保网络连接和 API Key 有效。
测试脚本 (test_minimax.py)
from openai import OpenAI
# 初始化客户端
client = OpenAI(
base_url = "https://integrate.api.nvidia.com/v1",
# 请替换为您的真实 API Key
api_key = "YOUR_NVAPI_KEY_HERE"
)
print("正在测试 MiniMax M2 连接...")
try:
completion = client.chat.completions.create(
model="minimaxai/minimax-m2",
messages=[{"role":"user","content":"你好,请回复'连接成功'。"}],
temperature=1,
top_p=0.95,
max_tokens=100,
stream=True
)
for chunk in completion:
if chunk.choices and chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="")
print("\n\n测试完成!")
except Exception as e:
print(f"连接失败: {e}")
运行验证
python3 test_minimax.py
如果输出包含“连接成功”等字样,说明接口正常。
4. Opencode CLI 配置步骤
通常 opencode CLI 的配置文件位于用户主目录下。请根据其实际配置方式(JSON 配置文件或环境变量)进行设置。
方法 A: 修改配置文件 (推荐)
- 找到配置文件路径,通常位于
~/.config/opencode/config.json或类似位置。 - 在
models或providers部分添加自定义配置。参考格式如下:
{
"custom_openai_providers": [
{
"id": "nvidia-minimax",
"name": "Nvidia MiniMax M2",
"api_base": "https://integrate.api.nvidia.com/v1",
"api_key": "YOUR_NVAPI_KEY_HERE",
"models": [
"minimaxai/minimax-m2"
]
}
]
}
注意:具体的 JSON 字段名(如 api_base vs base_url)请参考您当前 opencode 版本的文档或现有配置。
方法 B: 使用环境变量
如果 opencode 支持环境变量配置,可以在启动前设置:
export OPENAI_BASE_URL="https://integrate.api.nvidia.com/v1"
export OPENAI_API_KEY="YOUR_NVAPI_KEY_HERE"
export OPENCODE_MODEL="minimaxai/minimax-m2"
# 启动 opencode
opencode
5. 使用建议
- 模型特点: MiniMax M2 具有超长上下文处理能力(通常支持 128k+ token),非常适合代码分析、长文档阅读和复杂任务规划。
- 参数调整: 建议
temperature设置为0.1-0.7用于编程任务,以获得更精确的输出。
文档生成日期: 2026年1月25日
本人公众号:比特财商 本人精通java高并发,DDD,微服务等技术实践,专注java,rust技术栈。 本人Eric,坐标深圳,前IBM架构师、咨询师、敏捷开发技术教练,前IBM区块链研究小组成员、十多年架构设计工作经验,《区块链核心技术与应用》作者之一,前huobi机构事业部|矿池defi部技术主管。 现聚焦于:AI+Crypto。 工作微信&QQ:360369487,区块链创投与交易所资源对接,加我注明:博客园+对接,技术咨询和顾问,加我注明:博客园+顾问。想学习golang和rust的同学,也可以加我微信,备注:博客园+golang或博客园+rust,谢谢!

浙公网安备 33010602011771号