DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底
一觉醒来,大模型又变天了
2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——DeepSeek-V4 预览版正式上线。
没有提前预热,没有发布会,没有大佬站台。就一个公众号推文,一个 API 文档更新。但就这么一个"低调"的发布,信息量直接炸裂。
让我们先把硬数据列出来,再聊它到底意味着什么。
硬核参数:每一条都在重新定义行业标准
DeepSeek 这次直接上了两个版本:
| DeepSeek-V4-Flash | DeepSeek-V4-Pro | |
|---|---|---|
| 上下文长度 | 1M tokens | 1M tokens |
| 最大输出 | 384K tokens | 384K tokens |
| 思考模式 | ✅(默认开启) | ✅(默认开启) |
| JSON Output | ✅ | ✅ |
| Tool Calls | ✅ | ✅ |
| Chat Prefix Completion | ✅(Beta) | ✅(Beta) |
| FIM Completion | ✅(Beta,仅非思考模式) | ✅(Beta,仅非思考模式) |
| API 兼容 | OpenAI + Anthropic 格式 | OpenAI + Anthropic 格式 |
几个关键点拎出来单独说:
1M 上下文——一百万 tokens。这意味着你可以把整本《红楼梦》塞进去,还有大把余量。长文档处理、代码库分析、多轮对话……之前的瓶颈直接消失了。
384K 最大输出——这个数字比很多模型的总上下文都长。一次输出能写一本中篇小说。对批量文档处理、长代码生成场景来说,这是质的飞跃。
双模型策略——Flash 走性价比路线,Pro 走旗舰路线。简单任务用 Flash,复杂推理用 Pro。像不像手机芯片的标准版和 Pro 版?但这是在大模型领域第一次这么明确地做产品分层。
定价:Flash 继续屠夫价,Pro 贵得有道理
| V4-Flash | V4-Pro | 对比 GPT-4o | |
|---|---|---|---|
| 输入(缓存命中) | $0.028/M | $0.145/M | ~$1.25/M |
| 输入(缓存未命中) | $0.14/M | $1.74/M | ~$2.50/M |
| 输出 | $0.28/M | $3.48/M | ~$10/M |
Flash 的价格……我反复确认了三遍。
每百万 tokens 输入 $0.14,输出 $0.28。缓存命中更是只要 $0.028。
换算一下:用 Flash 处理一篇 10 万字的文章,大概花不到 1 分钱。这个价格已经低于很多开发者对"白菜价"的想象了。
Pro 虽然看起来贵不少(输出 $3.48/M),但考虑到 1M 上下文 + 384K 输出 + 思考模式的能力密度,对标的是 Claude Opus / GPT-4o 这个级别——但价格依然低了一个量级。
技术细节:从 DeepSeek 的技术基因说起
虽然这次预览版还没放出技术报告,但基于 DeepSeek 一贯的技术路线,我们可以合理推测:
MoE(混合专家)架构大概率延续并进化。 从 V2 到 V3,DeepSeek 的 MoE 架构已经非常成熟。V4 在这个基础上继续优化毫不意外——更高效的专家路由、更低的激活参数比,意味着更强的能力、更低的推理成本。
MLA(多头潜在注意力)应该全面应用。 这是 DeepSeek 的招牌技术,通过将 KV Cache 压缩到低维空间,大幅降低显存占用。1M 上下文能在合理成本下实现,MLA 功不可没。
训练效率持续拉满。 DeepSeek 团队开源的 DeepGEMM(FP8 GEMM 内核)、FlashMLA、DeepEP(专家并行通信库)等基础设施,一直在为自家的模型训练和推理铺路。V4 大概率也是这一整套高效训练栈的产物。
原生支持 Anthropic API 格式是个信号——DeepSeek 在积极争夺 Claude 用户。迁移成本几乎为零,换一下模型名就行。
API 迁移:老用户要注意
官方明确说:
deepseek-chat和deepseek-reasoner将在未来弃用。当前为了兼容性,它们分别对应deepseek-v4-flash的非思考模式和思考模式。
也就是说,如果你现在用的是 deepseek-chat,已经在悄悄用 V4-Flash 了。
新项目建议直接用 deepseek-v4-flash 和 deepseek-v4-pro,别再依赖旧名称。
这对行业意味着什么
对开发者:Flash 的价格让"AI-native"应用的算力成本几乎可以忽略不计。之前因为 token 费用不敢做的功能——实时文档分析、全代码库索引、超长对话——现在可以放开手脚了。
对竞争对手:压力山大。1M 上下文 + 384K 输出 + Flash 级定价,这是一个几乎不可能三角的组合。OpenAI、Anthropic、Google 的产品经理今晚大概睡不好了。
对开源生态:DeepSeek 一贯的开源策略(V2/V3/R1 都开源了权重),让社区对 V4 的开源充满期待。如果 V4 也开源,那对整个开源大模型生态又是一针强心剂。
对"国产大模型"叙事:DeepSeek 再次证明,中国团队能做出世界顶级的大模型。而且不是靠堆资源,是靠架构创新和工程效率。从 V2 的 MLA 到 V3 的 MoE 到 V4 的双模型分层,每一步都有明确的技术思考在里面。
写在最后
从 DeepSeek-V2 开始惊艳业界,到 V3 开源引爆全球开发者社区,再到 R1 证明推理能力可以和 OpenAI 掰手腕——DeepSeek 的每一步都在重新定义"性价比"的边界。
现在 V4 来了。1M 上下文、384K 输出、Flash/Pro 双模型、史上最低的 API 定价。
这不是什么"小步迭代"。这是又一次的跨越。
模型能力没有天花板,价格也没有地板。这场游戏的节奏,被 DeepSeek 又加快了一拍。
——来自公众号:人生几十年噢耶

浙公网安备 33010602011771号