摘要:
2025.10.11 1.掩码语言建模(MLM)任务在预训练阶段的主要目的是让模型通过预测被掩码的词来学习上下文相关的双向表示,如BERT模型所示。 2025.10.15 1.大型预训练语言模型(如GPT、BERT等)的预训练阶段通常采用自监督学习(Self-Supervised Learning) 阅读全文
posted @ 2025-10-11 22:05
sellingpear
阅读(6)
评论(0)
推荐(0)
摘要:
2025.10.11 1.在分布式训练大型模型时,数据并行策略的核心定义是:在多个设备上复制完整模型,每个设备处理独立的数据批次,并通过同步梯度来更新模型参数。 阅读全文
posted @ 2025-10-11 22:03
sellingpear
阅读(8)
评论(0)
推荐(0)
摘要:
2025.10.11 1.在大型语言模型的预训练-微调范式中,参数高效方法(如Adapter、LoRA)旨在通过仅更新少量参数来减少微调的计算开销。 阅读全文
posted @ 2025-10-11 22:02
sellingpear
阅读(5)
评论(0)
推荐(0)
摘要:
2025.10.11 1.ROC曲线(接收者操作特征曲线)描述了模型的真正率(TPR)与假正率(FPR)之间的关系,用于评估二分类模型的性能 阅读全文
posted @ 2025-10-11 21:59
sellingpear
阅读(17)
评论(0)
推荐(0)
摘要:
2025.10.11 1.核心思想 通过冻结预训练模型的权重,避免全量微调,并添加可训练的低秩分解矩阵来高效捕获新任务的知识 阅读全文
posted @ 2025-10-11 21:58
sellingpear
阅读(30)
评论(0)
推荐(0)

浙公网安备 33010602011771号