一、基础概念与架构理解

  1. Transformer架构的核心组件(如自注意力、位置编码)及其在长序列处理中的优势与局限
  2. BERT与GPT的预训练目标差异(MLM vs. Causal LM)及适用场景对比
  3. 什么是Prefix LM?它与Causal LM在模型生成能力上的区别
  4. 多模态大模型(如Flamingo、GPT-4V)的跨模态对齐机制设计思路
  5. 模型涌现能力(Emergent Ability)的量化评估指标及理论解释
  6. 大模型参数量与性能的非线性关系(如Scaling Law)的数学表达与实际限制

二、训练与优化技术

预训练阶段

  1. 大规模预训练数据集构建的关键挑战(如数据清洗、噪声过滤、领域覆盖)
  2. 混合精度训练(FP16/BP16)的显存优化策略与梯度溢出规避方法
  3. 分布式训练中的通信优化技术(如AllReduce、Pipeline Parallelism)及其收敛性影响
  4. 因果建模(Causal Inference)在大模型偏差修正中的应用场景

微调与适配

  1. 全参数微调(Full Fine-tuning)的显存需求计算公式(如显存占用=2×Batch×Sequence×Hidden×Params)
  2. LoRA与Prefix Tuning的参数效率对比及其在低资源场景下的适用性分析
  3. 指令微调(SFT)数据构建的黄金准则(如COLE、MMLU格式规范)
  4. 知识蒸馏(Knowledge Distillation)中教师-学生模型的知识损失量化方法
  5. 领域微调后模型通用能力下降(Domain Adaptation Gap)的缓解策略(如弹性权重巩固)

三、部署与工程实践

推理优化

  1. 量化感知训练(QAT)与后训练量化(PTQ)的误差累积模型及适用场景
  2. 模型并行(Tensor/Data Parallelism)在长上下文处理中的通信瓶颈解决方案
  3. 基于vLLM的KV缓存优化在多轮对话中的延迟降低策略
  4. 大模型API服务的QPS限流算法设计(如令牌桶与滑动窗口结合)

LangChain与RAG

  1. LangChain Agent的规划模块(Planner)如何实现多工具协同调用(如检索+计算+代码执行)
  2. RAG系统中向量数据库(如Milvus、FAISS)的分段检索策略(Hybrid Search)
  3. 模型幻觉(Hallucination)的动态置信度校准方法(如基于知识图谱的验证层)
  4. 文档切分中的语义保持技术(如基于BERT的语义段落边界检测)

四、前沿技术方向

架构创新

  1. 稀疏化训练(Sparse Training)的动态门控机制(如Mixture of Experts)设计原理
  2. 3D注意力(3D Attention)在视频理解任务中的时空建模实现
  3. 模型架构搜索(NAS)在大模型设计中的自动化路径探索策略

伦理与安全

  1. 大模型价值观对齐(Value Alignment)的对抗训练框架(如Constitutional AI)
  2. 数据隐私保护技术(如联邦学习与差分隐私)在微调阶段的融合方案
  3. 模型可解释性增强的注意力可视化工具链(如LIME、SHAP扩展)

五、垂直领域挑战

  1. 金融领域大模型的监管合规性设计(如风险提示注入、审计日志追踪)
  2. 生物医药大模型的分子生成任务中的毒性过滤(如基于SMILES的规则引擎)
  3. 工业场景下的边缘端大模型部署(如TensorRT优化与NPU适配)

六、实战与系统设计

  1. 从零训练一个开源大模型(如LLaMA-2)的完整技术栈选型(框架、硬件、监控)
  2. 多租户大模型服务的计费策略设计(如Token阶梯定价与QoS保障)
  3. 大模型监控系统的核心指标体系(如P50/P90延迟、Token吞吐量、错误类型分布)