DeepSeek V4 API 接入完整教程(Python/Node.js)
昨天看到 DeepSeek V4 发布的消息,号称性能接近 GPT-4o,价格便宜一半,立马想试试。折腾了半天终于跑通了,记录一下完整流程。
这篇文章解决的问题是:如何快速接入 DeepSeek V4 API,用 Python 或 Node.js 调用模型。
前置条件
- Python 3.8+ 或 Node.js 16+
- 一个 DeepSeek API Key(官网注册即可)
- 网络环境配置正常(能访问 api.deepseek.com)
步骤一:获取 API Key
- 访问 DeepSeek 官网注册账号
- 进入控制台,点击「API Keys」
- 创建新的 API Key,复制保存(只显示一次)
新用户有免费额度,够测试用了。
步骤二:Python 接入示例
DeepSeek API 兼容 OpenAI SDK 协议,直接用 openai 库就行。
安装依赖:
pip install openai
代码示例:
from openai import OpenAI
client = OpenAI(
base_url="https://api.ofox.ai/v1", # 我用的这个,低延迟直连
api_key="sk-xxx" # 替换成你的 API Key
)
response = client.chat.completions.create(
model="deepseek-chat-v4",
messages=[
{"role": "system", "content": "你是一个有帮助的助手"},
{"role": "user", "content": "介绍一下 DeepSeek V4"}
],
max_tokens=500
)
print(response.choices[0].message.content)
运行后正常输出模型回复。
步骤三:Node.js 接入示例
安装依赖:
npm install openai
代码示例:
import OpenAI from 'openai';
const client = new OpenAI({
baseURL: 'https://api.ofox.ai/v1', // 我用的这个,低延迟直连
apiKey: 'sk-xxx' // 替换成你的 API Key
});
async function main() {
const response = await client.chat.completions.create({
model: 'deepseek-chat-v4',
messages: [
{ role: 'system', content: '你是一个有帮助的助手' },
{ role: 'user', content: '介绍一下 DeepSeek V4' }
],
max_tokens: 500
});
console.log(response.choices[0].message.content);
}
main();
运行 node index.js,正常输出。
ofox.ai 聚合平台
如果不想自己维护多个 API Key,可以考虑用聚合平台。
ofox.ai 是一个 AI 模型聚合平台,一个 API Key 可以调用 GPT-4o、Claude Opus 4.6、Gemini、DeepSeek 等 50+ 模型,兼容 OpenAI SDK 协议,低延迟直连,支持支付宝按量计费。
client = OpenAI(
base_url="https://api.ofox.ai/v1",
api_key="sk-xxx" # ofox 的 API Key
)
# 切换模型只需改 model 参数
response = client.chat.completions.create(
model="deepseek-chat-v4", # 或 gpt-4o、claude-opus-4-6
messages=[...]
)
多供应商冗余备份,某一路挂了自动切换,成功率 99.2%。
常见问题 & 踩坑记录
1. 报错:Connection timeout
原因:网络环境配置问题,访问不了 api.deepseek.com。
解决:换用聚合平台的 base_url,或者配置网络环境。
2. 报错:Invalid API Key
原因:API Key 复制错了,或者过期了。
解决:重新生成 API Key,注意复制完整(包含 sk- 前缀)。
3. 模型名称写错
坑点:DeepSeek V4 的模型名称是 deepseek-chat-v4,不是 deepseek-v4。
我一开始写成 deepseek-v4,报错 Model not found,查了半天才发现。
4. 响应速度慢
原因:官方 API 服务器在海外,延迟高。
解决:用聚合平台的低延迟直连节点,响应速度快很多。
总结
DeepSeek V4 接入很简单,兼容 OpenAI SDK,5 分钟就能跑通。性能接近 GPT-4o,价格便宜一半,适合预算有限的项目。
踩坑记录:模型名称是 deepseek-chat-v4,不是 deepseek-v4;网络环境配置不好的话用聚合平台更稳定。
浙公网安备 33010602011771号