DeepSeek-V4 深夜炸场:1M 上下文、384K 输出、双模型,API 定价直接卷到底

一觉醒来,大模型又变天了

2026年4月24日,DeepSeek 官方公众号深夜推送了一篇文章——DeepSeek-V4 预览版正式上线

没有提前预热,没有发布会,没有大佬站台。就一个公众号推文,一个 API 文档更新。但就这么一个"低调"的发布,信息量直接炸裂。

让我们先把硬数据列出来,再聊它到底意味着什么。

硬核参数:每一条都在重新定义行业标准

DeepSeek 这次直接上了两个版本

DeepSeek-V4-Flash DeepSeek-V4-Pro
上下文长度 1M tokens 1M tokens
最大输出 384K tokens 384K tokens
思考模式 ✅(默认开启) ✅(默认开启)
JSON Output
Tool Calls
Chat Prefix Completion ✅(Beta) ✅(Beta)
FIM Completion ✅(Beta,仅非思考模式) ✅(Beta,仅非思考模式)
API 兼容 OpenAI + Anthropic 格式 OpenAI + Anthropic 格式

几个关键点拎出来单独说:

1M 上下文——一百万 tokens。这意味着你可以把整本《红楼梦》塞进去,还有大把余量。长文档处理、代码库分析、多轮对话……之前的瓶颈直接消失了。

384K 最大输出——这个数字比很多模型的总上下文都长。一次输出能写一本中篇小说。对批量文档处理、长代码生成场景来说,这是质的飞跃。

双模型策略——Flash 走性价比路线,Pro 走旗舰路线。简单任务用 Flash,复杂推理用 Pro。像不像手机芯片的标准版和 Pro 版?但这是在大模型领域第一次这么明确地做产品分层。

定价:Flash 继续屠夫价,Pro 贵得有道理

V4-Flash V4-Pro 对比 GPT-4o
输入(缓存命中) $0.028/M $0.145/M ~$1.25/M
输入(缓存未命中) $0.14/M $1.74/M ~$2.50/M
输出 $0.28/M $3.48/M ~$10/M

Flash 的价格……我反复确认了三遍。

每百万 tokens 输入 $0.14,输出 $0.28。缓存命中更是只要 $0.028。

换算一下:用 Flash 处理一篇 10 万字的文章,大概花不到 1 分钱。这个价格已经低于很多开发者对"白菜价"的想象了。

Pro 虽然看起来贵不少(输出 $3.48/M),但考虑到 1M 上下文 + 384K 输出 + 思考模式的能力密度,对标的是 Claude Opus / GPT-4o 这个级别——但价格依然低了一个量级。

技术细节:从 DeepSeek 的技术基因说起

虽然这次预览版还没放出技术报告,但基于 DeepSeek 一贯的技术路线,我们可以合理推测:

MoE(混合专家)架构大概率延续并进化。 从 V2 到 V3,DeepSeek 的 MoE 架构已经非常成熟。V4 在这个基础上继续优化毫不意外——更高效的专家路由、更低的激活参数比,意味着更强的能力、更低的推理成本。

MLA(多头潜在注意力)应该全面应用。 这是 DeepSeek 的招牌技术,通过将 KV Cache 压缩到低维空间,大幅降低显存占用。1M 上下文能在合理成本下实现,MLA 功不可没。

训练效率持续拉满。 DeepSeek 团队开源的 DeepGEMM(FP8 GEMM 内核)、FlashMLA、DeepEP(专家并行通信库)等基础设施,一直在为自家的模型训练和推理铺路。V4 大概率也是这一整套高效训练栈的产物。

原生支持 Anthropic API 格式是个信号——DeepSeek 在积极争夺 Claude 用户。迁移成本几乎为零,换一下模型名就行。

API 迁移:老用户要注意

官方明确说:

deepseek-chatdeepseek-reasoner 将在未来弃用。当前为了兼容性,它们分别对应 deepseek-v4-flash 的非思考模式和思考模式。

也就是说,如果你现在用的是 deepseek-chat,已经在悄悄用 V4-Flash 了。

新项目建议直接用 deepseek-v4-flashdeepseek-v4-pro,别再依赖旧名称。

这对行业意味着什么

对开发者:Flash 的价格让"AI-native"应用的算力成本几乎可以忽略不计。之前因为 token 费用不敢做的功能——实时文档分析、全代码库索引、超长对话——现在可以放开手脚了。

对竞争对手:压力山大。1M 上下文 + 384K 输出 + Flash 级定价,这是一个几乎不可能三角的组合。OpenAI、Anthropic、Google 的产品经理今晚大概睡不好了。

对开源生态:DeepSeek 一贯的开源策略(V2/V3/R1 都开源了权重),让社区对 V4 的开源充满期待。如果 V4 也开源,那对整个开源大模型生态又是一针强心剂。

对"国产大模型"叙事:DeepSeek 再次证明,中国团队能做出世界顶级的大模型。而且不是靠堆资源,是靠架构创新和工程效率。从 V2 的 MLA 到 V3 的 MoE 到 V4 的双模型分层,每一步都有明确的技术思考在里面。

写在最后

从 DeepSeek-V2 开始惊艳业界,到 V3 开源引爆全球开发者社区,再到 R1 证明推理能力可以和 OpenAI 掰手腕——DeepSeek 的每一步都在重新定义"性价比"的边界。

现在 V4 来了。1M 上下文、384K 输出、Flash/Pro 双模型、史上最低的 API 定价。

这不是什么"小步迭代"。这是又一次的跨越。

模型能力没有天花板,价格也没有地板。这场游戏的节奏,被 DeepSeek 又加快了一拍。

——来自公众号:人生几十年噢耶

posted @ 2026-04-24 13:14  iTech  阅读(0)  评论(0)    收藏  举报