2.13

第24天:大模型基础
学习目标:了解Transformer架构和大模型使用方法。
具体内容:

Transformer架构:自注意力机制、编码器-解码器结构。

Hugging Face Transformers库:加载预训练模型(如BERT),进行微调。

练习:使用Hugging Face的BERT模型进行文本分类。

任务:

使用预训练的BERT模型,在特定数据集(如GLUE)上进行微调。

posted @ 2026-02-13 21:22  为啥不懂就问  阅读(4)  评论(0)    收藏  举报