Fork me on Gitee

DeepSeek-V4 技术报告(导读)

DeepSeek_V4(导读)

原文下载地址:

DeepSeek-V4 技术报告_csdn下载

DeepSeek-V4 技术报告_huggingface下载

思维导图

全文概述

全文概述

DeepSeek-V4系列是面向超长上下文处理的高效百万token上下文智能模型,包含1.6T参数的DeepSeek-V4-Pro和284B参数的DeepSeek-V4-Flash。该系列通过混合注意力架构、流形约束超连接和Muon优化器三大创新,突破传统注意力机制的二次复杂度瓶颈,在保持性能的同时将推理FLOPs和KV缓存分别降低至前代模型的27%和10%。其核心架构采用CSA与HCA的混合注意力机制,通过压缩稀疏注意力和重压缩注意力技术,在1M上下文场景下实现KV缓存压缩至基线模型的2%。结合FP4量化训练和上下文并行技术,DeepSeek-V4系列在预训练阶段使用32T高质量数据,通过两阶段专家模型培养和策略蒸馏实现能力整合。实验表明,DeepSeek-V4-Pro-Max在知识、推理、代理任务和长上下文处理均达开源模型SOTA,其推理效率较GPT-5.2提升30%,KV缓存需求降低70%。该研究为在线学习、长程任务等未来范式奠定了基础。

名词解释

  1. CSA:压缩稀疏注意力机制,通过将每m个token的KV缓存压缩为1个条目并应用稀疏选择,结合滑动窗口注意力,在保持局部依赖的同时大幅降低KV缓存需求。
  2. HCA:重压缩注意力机制,采用更激进的压缩策略,将每m'个token压缩为1个KV条目,通过分组输出投影实现高效计算,适用于超长序列场景。
  3. mHC:流形约束超连接,通过将残差映射约束到双随机矩阵流形,增强信号传播稳定性,解决传统超连接在深层堆叠时的数值不稳定性问题。

AI大纲

  1. 架构创新
  • 混合注意力架构:CSA与HCA的协同设计
  • mHC超连接:双随机矩阵流形约束的残差映射
  • Muon优化器:混合牛顿-舒尔茨迭代与Nesterov动量的高效优化
  1. 效率突破
  • KV缓存压缩:BF16+FP8混合存储与FP4量化
  • 计算优化:闪电索引器、滑动窗口注意力分支
  • 上下文并行:两阶段通信策略与异步KV缓存管理
  1. 训练与推理
  • 预训练策略:32T高质量数据与渐进式序列长度扩展
  • 后训练流程:专家模型培养+策略蒸馏的两阶段范式
  • 推理框架:异步KV缓存加载与磁盘缓存机制
  1. 性能验证
  • 基准测试:知识、推理、代理任务的SOTA表现
  • 长上下文能力:MRCR任务超越Gemini-3.1-Pro
  • 实际应用:中文写作、搜索增强问答、代码代理的工业级验证

关键要点

  1. 架构效率革命:通过CSA/HCA混合注意力机制,DeepSeek-V4-Pro在1M上下文场景下仅需27%的单token FLOPs和10%的KV缓存,较DeepSeek-V3.2实现数量级提升。
  2. 训练稳定性突破:mHC通过Sinkhorn-Knopp算法将残差映射约束到双随机矩阵流形,解决深层堆叠时的数值不稳定性,使训练稳定性提升6.7%。
  3. 推理优化创新:采用异步KV缓存加载与磁盘缓存机制,支持百万token上下文的高效推理,DeepSeek-V4-Flash在代码推理任务中达到GPT-5.2的性能水平,但成本降低30%。
  4. 工业级应用验证:在中文写作、搜索增强问答、代码代理等实际场景中,DeepSeek-V4-Pro-Max在任务完成率、内容质量等指标上超越Opus-4.6-Max,非损失率达63%。

关键图表解读

图1:DeepSeek-V4-Pro-Max与竞品模型的基准性能对比及推理效率分析。左侧显示其在SimpleQA等知识基准超越开源模型,右侧揭示其在1M上下文场景下仅需27%的FLOPs和10%的KV缓存,较DeepSeek-V3.2实现效率飞跃。
@image@f11.jpg

图2:混合注意力架构设计。展示CSA通过压缩索引器选择top-k KV条目,HCA采用更激进压缩率,两者结合实现长序列效率突破。
@image@f3.jpg

图3:mHC超连接机制。通过Sinkhorn-Knopp算法将残差映射矩阵约束到双随机矩阵流形,增强深层堆叠时的数值稳定性,解决传统超连接的训练不稳定性问题。
@image@f2.jpg

相关组织

  • DeepSeek-AI:主导DeepSeek-V4系列研发的机构,专注于高效大模型架构创新与工业级应用落地。

相关人物

  • Xie et al.:提出mHC超连接机制的核心研究团队,解决深层Transformer的数值稳定性问题。
  • Jordan et al.:开发Muon优化器的研究团队,通过混合牛顿-舒尔茨迭代提升训练效率。

关键问题与回答

  1. DeepSeek-V4如何实现百万token上下文的高效处理?
    通过CSA/HCA混合注意力机制:CSA将每4个token压缩为1个KV条目并应用top-512稀疏选择,HCA采用128倍压缩率,结合滑动窗口注意力分支保留局部依赖,最终KV缓存压缩至基线模型的2%。

  2. mHC超连接相比传统残差连接有何优势?
    mHC通过Sinkhorn-Knopp算法将残差映射矩阵约束到双随机矩阵流形,确保谱范数≤1,解决传统超连接在深层堆叠时的数值爆炸问题,使训练稳定性提升6.7%。

  3. DeepSeek-V4系列在实际应用中如何平衡性能与成本?
    采用分层推理策略:DeepSeek-V4-Pro-Max在高要求场景提供最强性能,DeepSeek-V4-Flash通过FP4量化和更激进压缩实现成本优化,在代码推理任务中达到GPT-5.2性能水平,但成本降低30%。

关键要点

高效处理百万级上下文的语言模型

这一章节介绍了一篇名为《DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence》的论文,该论文提出了一种新的语言模型——DeepSeek-V4系列,包括两个强大的Mixture-of-Experts(MoE)模型:DeepSeek-V4-Pro和DeepSeek-V4-Flash。这两个模型都支持一种上下文长度为一百万标记的混合注意力架构,并且在训练过程中使用了Manifold-Constrained Hyper-Connections(mHC)来增强传统的残差连接。此外,还引入了一个名为Muon的优化器,可以更快地收敛并提高训练稳定性。最后,作者们对这两个模型进行了广泛的预训练,并通过一系列后处理步骤进一步增强了它们的能力。

文档速读

DeepSeek-V4系列:高效处理超长序列的新突破

这一章节介绍了一种新型的深度学习模型——DeepSeek-V4系列,该模型采用了创新的架构和优化方法,能够高效地处理超长序列数据,并且在测试时具有更高的效率和性能表现。该模型通过使用压缩稀疏注意力机制、强压缩注意力机制、曼德勒约束超连接等技术手段来提高计算效率和建模能力。此外,该模型还引入了基础设施优化措施,包括单个融合内核设计、分片语言的应用、高效的批处理不变性和确定性内核库等,从而实现了更快速、稳定的训练和推理过程。最后,该模型采用两阶段训练方式,先独立培养特定领域的专家模型,再通过在线蒸馏将这些专家模型整合成统一的模型,从而实现更加全面和优秀的表现。

高性能的知识推理与长距离上下文处理模型

这一章节介绍了DeepSeek-V4系列的评估结果和架构设计。其中,DeepSeek-V4-Pro-Max在知识、推理和长上下文等方面表现优异,但仍落后于一些领先模型。DeepSeek-V4-Pro-Max采用了Manifold-Constrained Hyper-Connections(mHC)来加强残差连接,并使用了混合注意力架构来提高长上下文效率。同时,该系列还采用了Muon作为优化器,并保留了DeepSeekMoE和Multi-Token Prediction(MTP)等组件的设计。总体来说,DeepSeek-V4系列是一种高度成本效益的架构,适用于复杂的推理任务。

深度学习模型优化技术及其应用

这一章节介绍了DeepSeek-V4系列模型的设计和改进方案。该系列采用了DeepSeekMoE架构,并对激活函数、负载平衡策略等进行了优化。此外,还引入了Manifold-Constrained Hyper-Connections(mHC)来增强信号传播的稳定性。在MTP模块方面,与DeepSeek-V3相同,没有进行修改。同时,该章节还详细介绍了标准Hyper-Connections和mHC的区别以及如何设计mHC。最后,该章节介绍了一种名为CSA的核心架构,通过压缩和选择性地使用Key-Value对等方式加速计算。

深度学习中的高效注意力机制设计与应用

这一章节介绍了作者设计的两种高效的注意力架构——Compressed Sparse Attention(CSA)和Heavily Compressed Attention(HCA),并采用了它们的交替混合配置来降低长文本场景下的计算成本。其中,CSA利用压缩和稀疏策略将每个m个token的Key-Value(KV)缓存压缩成一个条目,并通过DeepSeek Sparse Attention进一步加速;而HCA则将每个m'(> m)个token的KV缓存合并成一个条目,并引入一些滑动窗口KV条目以增强局部精细依赖关系。这两种架构的混合使用显著提高了DeepSeek-V4系列在长上下文环境中的效率,使得处理一百万个token的上下文成为可能。

高效处理长序列的方法

这一章节介绍了两个新型的注意力机制:Compressed Self-Attention(CSA)和Heavily Compressed Attention(HCA)。它们都采用了压缩策略来减少计算量,并且不使用稀疏注意力。CSA通过压缩输入的隐藏状态来生成压缩的键值对,然后进行多头注意力计算。而HCA则在CSA的基础上增加了更多的压缩率,并且采用共享的键值查询矩阵和分组输出投影策略。此外,文章还介绍了一些其他的细节技术,如查询和键值项归一化、部分旋转位置编码等。这些技术可以提高训练稳定性和模型性能。

深度学习模型优化与压缩技术

这一章节主要介绍了DeepSeek-V4系列模型的效率优化方法,包括混合存储格式、低精度计算和压缩注意力等技术手段。通过这些技术的应用,DeepSeek-V4系列在长上下文场景下取得了显著的效率提升,并且相较于之前的版本,在KV缓存大小和计算FLOPs方面都有了大幅降低。此外,作者还介绍了一种名为Muon的优化器,用于更新大部分模块的权重参数,该优化器具有更快的收敛速度和更好的训练稳定性。最后,作者还提到了一些细节问题,如如何避免爆炸的注意力对数以及如何应用AdamW优化器等。

细粒度通信计算重叠加速混合专家MoE并行

这一章节主要介绍了如何通过细粒度的通信和计算重叠来加速混合专家(MoE)模型,并提出了一种新的方案——专家并行(EP)。该方案将通信和计算融合成一个单一的流水线内核,实现了更高效的通信和计算重叠。同时,作者还分享了一些关于硬件设计的建议,包括平衡计算和通信之间的比率、提供足够的功率预算以及采用低延迟的通信方式等。最后,作者提出了一个低成本的激活函数,可以进一步降低带宽要求。

基于TileLang的高效卷积核开发

这一章节主要介绍了如何使用TileLang来开发高效的卷积核,并通过Host Codegen和SMT-Solver-Assisted Formal Integer Analysis等技术手段来降低CPU侧的开销并提高编译效率。此外,作者还强调了数值准确性和位精度的重要性,并提供了相应的解决方案。这些技术和设计选择在保持高性能的同时,也能够满足生产环境中的准确性要求。

高性能、可重复和确定性计算库的设计与实现

这一章节主要介绍了作者团队开发的高效、可重复训练和确定性的计算内核库。该库包含了许多高性能的计算内核,并且能够确保训练的可重复性和稳定性。为了实现批不变性,作者们采用了双内核策略来解决分块K-V方法带来的严重量化问题。同时,为了避免非确定性导致的问题,作者们在反向传播过程中使用了分离的累加缓冲区和隔离的数据缓冲区。最后,对于矩阵乘法操作,作者们通过一系列优化使得其性能可以匹敌或超过标准的分块技术。总之,这个内核库可以帮助研究人员更轻松地进行模型设计和调试。

量化训练技术的应用

这一章节介绍了Quantization-Aware Training(QAT)的原理和应用,旨在通过适应量化引入的精度损失来实现推理加速和内存节省。该方法使用FP4(MXFP4)量化技术对模型中的两个组件进行处理:一是MoE专家权重,二是CSA索引器中的Query-Key路径。在QAT过程中,还进一步将索引分数I从FP32量化到BF16,从而实现了对顶级选择器的速度提升,并保持了99.7%的KV条目召回率。对于MoE专家权重,采用常见的QAT实践,先将其从FP32量化到FP4,再通过无损的FP4到FP8去量化返回进行计算。在反向传播过程中,梯度相对于同一FP8权重进行计算,并直接传递回FP32主权重,相当于通过量化操作应用了Straight-Through Estimator(STE)。在推理和rollout阶段的RL训练中,我们直接使用实际的FP4量化权重而不是模拟量化,以确保采样时的行为与在线部署完全一致,同时降低内核加载时间和内存消耗。

深度学习框架优化:Muon、mHC和混合注意力机制

这一章节介绍了作者们训练框架的构建和优化方法。他们使用了之前开发的基础设施,并引入了一些关键创新来适应新的架构组件,如Muon优化器、mHC和混合注意力机制。其中,Muon优化器需要完整的梯度矩阵来计算参数更新,这与传统的ZeRO设计存在冲突。因此,作者们设计了一种Hybrid策略,通过限制密集参数的最大大小并使用knapsack算法分配参数矩阵,确保每个rank管理大致平衡的负载。对于MoE参数,作者们将所有专家的下投影矩阵扁平化,并对它们进行填充,以便均匀地分布在所有的rank上。此外,作者们还观察到在BF16矩阵乘法中计算Newton-Schulz迭代时,Muon保持稳定。最后,为了减少通信量,作者们使用了随机舍入的方式将MoE梯度同步到BF16精度,并使用两阶段的方法避免低精度加法引起的累积误差。

优化深度学习模型内存和计算效率的方法

这一章节主要介绍了如何在深度学习模型中实现高效、节省内存的计算策略。其中,作者提出了几个优化策略,包括设计和实现融合了mHC的内核、引入选择性检查点策略以及调整DualPipe1F1B重叠方案等。这些策略可以有效地减少内存消耗和通信量,并且能够平衡计算开销和内存节约之间的关系。此外,为了应对压缩注意力机制中的挑战,作者还提出了一种两阶段通信方法来解决数据分片和压缩问题。总之,这一章节提供了许多有用的技巧和技术,可以帮助我们更好地理解和应用深度学习模型。

深度学习模型优化中的自动微分和激活检查点机制设计

这一章节主要介绍了DeepSeek-V4的架构设计和实现细节。其中,作者提出了一个灵活的激活检查点机制,使得开发者可以更加精细地控制计算图的重用,并且不会牺牲编程效率。此外,为了管理异构的KV缓存,作者还设计了一个定制化的KV缓存布局,包括两个主要组件:用于CSA/HCA的经典KV缓存和用于SWA和未压缩尾状态的状态缓存。最后,作者通过协同设计高性能稀疏注意力内核和KV缓存布局来解决第二个挑战。

优化深度学习模型中的缓存存储策略

这一章节主要介绍了在DeepSeek-V4中使用的on-disk KV缓存存储机制,用于消除共享前缀请求的重复填充。对于压缩的KV条目和未压缩的KV条目,分别设计了不同的存储管理方案。对于CSA和HCA,将所有压缩的KV条目存储到磁盘上,并在请求命中已存储的前缀时读取并重用相应的压缩KV条目,直到最后一个完整的压缩块。而对于SWA KV条目,则提出了三种不同的策略来高效地处理这些大型条目。这三种策略分别是全SWA缓存、定期检查点和零SWA缓存,每种策略都提供了不同的存储开销和计算冗余之间的权衡。根据具体的部署场景,可以选择最合适的策略来实现所需的存储和计算权衡。

DeepSeek-V4系列预训练模型构建与优化

这一章节主要介绍了DeepSeek-V4系列的预训练数据和模型配置。作者通过不断优化数据构建流程,增加了更多高质量、长有效上下文的数据源,并注重了多语言和学术价值高的领域。在模型配置方面,DeepSeek-V4-Flash和DeepSeek-V4-Pro分别采用了不同的Transformer层数和隐藏维度,并使用了CSA和HCA交替的方式进行注意力计算,同时引入了MoE层和Hash路由策略等技术手段来提高模型效果。总体来说,这一章节展示了DeepSeek-V4系列在预训练数据和模型设计方面的创新性和优越性。

DeepSeek-V4: 神经网络训练与优化策略详解

这一章节介绍了DeepSeek-V4-Flash和DeepSeek-V4-Pro的训练设置。它们都使用了优化器和AdamW优化器,并且在不同的模块上设置了不同的权重。同时,它们也采用了批量大小调度策略和学习率调度策略来提高模型效果。此外,它们还采用了一些特殊的技术,如辅助损失平衡、闪电索引器等来进一步提升性能。

稳定训练大规模混合模型的技术探索与实践

这一章节主要讲述了在训练万亿参数的MoE模型时所遇到的稳定性挑战,并提出了两种有效的方法来解决这些问题。其中一种方法是Anticipatory Routing,它通过将同步更新的骨干网络和路由网络解耦来提高训练稳定性。另一种方法是SwiGLU Clamping,它通过对线性部分进行[-10,10]范围内的限制和对门控部分进行上限为10的限制来消除异常值并稳定训练过程。这两种方法都被证明可以有效地提高训练稳定性,而不会影响模型性能。

超越前代的全能基础模型

这一章节介绍了作者对一些书籍的评价和比较。作者列举了多个不同类型的书籍,并根据其特点进行了分类和评估。同时,作者还提供了一些具体的评分和对比数据,以便读者更好地了解每本书的特点和优劣之处。通过这些评价和比较,读者可以更全面地了解各种书籍的特点和适用范围,从而选择适合自己的阅读材料。

DeepSeek-V4系列模型的开发与优化方法

这一章节介绍了DeepSeek-V4系列的开发过程和方法论。其中,作者详细阐述了模型的训练、优化和推理流程,并提出了一些创新性的技术方案,如On-Policy Distillation(OPD)、Generative Reward Model(GRM)等。此外,作者还介绍了一些实用工具和策略,如Quick Instruction、Interleaved Thinking等,用于提高模型的效果和效率。总体来说,这一章节对于理解深度学习模型的开发和应用具有一定的参考价值。

多领域专家知识融合方法研究与实践

这一章节主要介绍了作者在多领域专家知识的融合方面所采用的方法——On-Policy Distillation(OPD)。通过训练多个领域的专家模型,并利用OPD技术将它们的能力合并到最终的模型中。OPD是一种有效的知识转移方法,可以让学生模型从教师模型的输出分布中学习。为了实现这个目标,作者采用了多种特殊标记来辅助任务的完成。此外,作者还详细介绍了OPD的具体计算方式和优化策略,以及其相对于传统方法的优势。最后,作者还介绍了一些工程上的努力,使得全词汇OPD能够在大规模应用中得到实现。

加速深度强化学习和自适应决策任务的基础设施设计

这一章节主要介绍了作者团队在RL和OPD基础设施方面所做的改进和优化。他们采用了与DeepSeek-V3.2相同的分布式训练框架,并引入了高效的自动回归采样引擎来加速模型迭代周期。同时,他们还通过FP4量化技术来减少内存流量和采样延迟,从而提高了系统的效率。此外,为了支持全词汇量的OPD任务,他们还设计了一种有效的教师调度方案,可以有效地减轻I/O和DRAM压力。最后,他们使用了一个专门的TileLang内核来计算KL散度,以加速计算并减少动态内存分配。

大规模GPU集群的高效部署与管理技术

这一章节主要介绍了如何实现GPU集群的高效利用和硬件故障的容错处理。通过采用集群级抢占式任务调度器,可以随时暂停或恢复任何正在运行的任务,并使用写前日志(WAL)记录每个请求的状态,以便在中断后继续解码。此外,还提出了一种基于共享内存的数据加载器来减少CPU和GPU内存压力。为了满足不同场景下的执行需求,该章节还介绍了一个名为DSec的生产级沙箱平台,它支持四种不同的执行子系统,并提供了快速图像加载、密度优化和轨迹日志等功能。

深度学习模型在知识推理和编程任务中的表现评估

这一章节介绍了DeepSeek-V4系列在不同领域的评估设置和结果。其中,知识与推理任务包括多个数据集,如MMLU-Pro、GPQA等;数学任务则使用了HMMT、IMOAnswerBench等数据集,并采用特定的模板进行评估。此外,该系列还进行了更复杂的任务,如终端代理和搜索代理,使用的数据集有Terminal Bench 2.0、BrowseComp等。评估过程中采用了不同的工具和参数设置,例如在代码代理任务中使用了内部开发的评估框架,最大交互步数为500,最大上下文长度为512K个标记。最终的结果表明,DeepSeek-V4系列在各个领域都取得了不错的表现。

深度学习模型DeepSeek-V4-Pro-Max在知识和推理任务中的表现与比较

这一章节介绍了大型语言模型DeepSeek-V4系列的性能表现和对比结果。其中,DeepSeek-V4-Pro-Max在世界知识领域表现出色,超过了所有公开源代码的大规模语言模型,并与领先私有模型保持一定差距。在教育知识和推理方面,DeepSeek-V4-Pro-Max也略微优于其他模型。此外,该模型还展示了强大的编程竞赛能力,在一些任务上甚至可以匹敌封闭式模型。总体而言,DeepSeek-V4系列在各种评估指标上均取得了显著进展,特别是其在深度学习推理、数学问题解决和机器证明等领域的表现令人印象深刻。

DeepSeek V4-Pro 在中文写作和搜索任务中的表现评估

这一章节主要介绍了DeepSeek的性能评估和优化方法。作者通过开发内部指标来优先考虑实际使用情况,并针对DeepSeek API和Chatbot的主要用途进行评估。其中,中文写作是DeepSeek的一个重要应用场景,作者进行了严格的评估并比较了DeepSeek-V4-Pro和Gemini-3.1-Pro的表现。在搜索方面,作者采用了Retrieval-Augmented Search(RAG)和agentic search两种不同的搜索方式,并对它们进行了对比分析。总体来说,DeepSeek-V4-Pro在大部分任务上表现优异,但在一些特定场景下仍有提升空间。

DeepSeek-V4-Pro-Max在高级职业任务中表现优异

这一章节介绍了一个模型——DeepSeek-V4-Pro-Max,在高级中文专业任务中的表现。这些任务包括信息分析、文档生成和编辑等,涵盖了13个关键行业。为了评估模型的表现,进行了人类评价,并在四个维度上对模型输出进行评估,包括任务完成、指令遵循、内容质量和格式美学。结果显示,DeepSeek-V4-Pro-Max在大多数任务中都表现出色,特别是在任务完成和内容质量方面。然而,它有时会忽略特定的格式约束,并且在缩写长篇输入成简洁摘要时不太擅长。最后,它的格式美学还有改进的空间。

Next-Generation Large Language Models for Efficient Processing of Ultra-Long Contexts

这一章节主要介绍了DeepSeek-V4系列的模型架构和性能表现。该系列采用了混合注意力架构,并结合了CSA和HCA技术,实现了对超长上下文的理解和支持。同时,该系列还具有高效的本地支持和成本效益,并且能够实现大规模部署和交互响应。在测试任务上,DeepSeek-V4系列的表现超过了其他前沿模型,并且得到了用户的高度评价。未来,DeepSeek团队将继续优化模型架构和算法,提高数据质量和使用效率,推动LLMs的发展和应用。

大规模语言模型在长期任务中的应用与挑战

这一章节主要介绍了各种不同的语言模型及其应用场景和挑战。其中提到了SWE-bench、SimpleQA等数据集,以及针对不同任务的模型设计方法,如Humba、SuperGPT等。此外,还讨论了训练大规模模型所面临的计算资源和能源消耗等问题,并提出了一些解决方案,如Muon、ProphetNet等技术。总体来说,该章节旨在探讨如何利用语言模型解决实际问题,并推动人工智能技术的发展。

提升语言模型性能的技术与挑战

这一章节列举了多个关于自然语言处理和机器学习的论文,并提供了相应的链接。这些论文涵盖了各种主题,包括模型改进、数据生成、计算性能优化等。其中一些论文提出了新的算法或方法来解决现有问题,而其他论文则通过实验验证了已有方法的有效性。总体来说,这些论文都旨在推动自然语言处理和机器学习领域的发展。

作者名单及致谢

这一章节是书籍的附录A,列出了本书作者名单及致谢部分。其中,名字前面带有*号的人已经离开团队。研究与工程方面的作者有40多位,他们分别来自不同的领域,如数据科学、计算机视觉等。商业与合规方面的作者也有20多位,主要负责公司业务和法律合规方面的工作。此外,还有一些未列出姓名但对本书做出贡献的人士,他们在致谢中被特别提到。

深度学习工具DeepSeek-V4-Pro在搜索和写作任务中的表现及比较分析

这一章节主要介绍了两个搜索工具DeepSeek-V4系列模型和Gemini-3.1-Pro在不同任务上的表现比较,并且还给出了详细的实验数据和结果。其中,作者使用了多个不同的任务和子任务进行了测试,包括客观问答、主观问答、意见分析等。通过比较,可以看出DeepSeek-V4系列模型在大多数任务上表现更好,而Gemini-3.1-Pro则在一些特定的任务上表现更出色。此外,文章还提到了一些具体的例子和应用场景,例如在科技领域中的应用等。

posted @ 2026-04-26 20:54  JoePotter  阅读(199)  评论(0)    收藏  举报
``