摘要:
分割和整理数据 大多数情况下,你处理的数据并不能直接用于训练模型。在本节中,我们将探索🤗 Datasets 提供的各种功能,用于清洗你的数据集。 分割和整理我们的数据 与 Pandas 类似,🤗 Datasets 提供了多个函数来操作 Dataset 和 DatasetDict 对象。我们在 第 阅读全文
posted @ 2025-08-26 19:22
有何m不可
阅读(98)
评论(0)
推荐(0)
摘要:
如果我的数据集不在 Hub 上怎么办? 你已经知道如何使用 Hugging Face Hub 中的数据集,但你往往会发现自己需要处理在自己的笔记本电脑或者网络上的数据集。在本节中,我们将展示如何使用🤗 Datasets 加载不在 Hugging Face Hub 中的数据集。 使用本地和远程数据集 阅读全文
posted @ 2025-08-26 18:26
有何m不可
阅读(67)
评论(0)
推荐(0)
摘要:
本章简介 我们在 第三章 第一次体验了🤗 Datasets 库,了解到微调模型主要有三个步骤: 从 Hugging Face Hub 加载数据集。 使用 Dataset.map() 预处理数据。 加载和计算指标(特征)。 但这仅仅触及了🤗 Datasets 库能做的事情的冰山一角!在本章,我们将 阅读全文
posted @ 2025-08-26 18:22
有何m不可
阅读(34)
评论(0)
推荐(0)
摘要:
Part 1 完结! 这是课程第一部分的结尾!第 2 部分将在 11 月 15 日与大型社区活动一起发布,更多信息请 点击这里 。 你现在应该能够针对文本分类问题(单个或成对句子)对预训练模型进行微调,并将结果上传到模型中心。为确保你掌握了第一部分的内容,你应该针对你感兴趣的想法进行尝试(不一定是英 阅读全文
posted @ 2025-08-26 17:45
有何m不可
阅读(23)
评论(0)
推荐(0)
摘要:
构建模型卡片 模型卡片是一个配置文件,可以说与模型存储库中的模型和 tokenizer 文件一样重要。它包含了模型的核心定义,确保了社区成员可以复现模型的结果,并提供一个其他成员可以在这个模型基础上构建他们的组件的平台。 记录训练和评估过程并提供有关使用的数据以及已完成的预处理和后续处理的足够信息, 阅读全文
posted @ 2025-08-26 17:44
有何m不可
阅读(24)
评论(0)
推荐(0)
摘要:
共享预训练模型 接下来,我们将探索把预训练模型分享到 🤗 Hub 最便捷的方法。我们将一同研究一些工具和功能,它们可以简化直接在中心上分享和更新模型的流程。 我们鼓励所有训练模型的用户通过与社区共享来做出贡献——即使是在特定数据集上训练的模型的分享,也能帮助他人,节省他们的时间和计算资源,并提供一 阅读全文
posted @ 2025-08-26 17:41
有何m不可
阅读(60)
评论(0)
推荐(0)
摘要:
使用预训练模型 模型中心使选择合适的模型变得简单,只需几行代码即可在任何下游库中使用它。让我们来看看如何使用这些模型,以及如何将模型贡献到社区。 假设我们正在寻找一种可以执行掩码填充(mask filling 又称完形填空)的 French-based(法语)模型。 我们选择 camembert-b 阅读全文
posted @ 2025-08-26 17:06
有何m不可
阅读(21)
评论(0)
推荐(0)
摘要:
The Hugging Face Hub 我们的主网站——— Hugging Face中心 是一个集发现、使用及贡献最新先进模型与数据集为一体的中心平台。这里汇聚了超过 10,000 个公开可用的各种领域的模型。我们将在本章节专注探讨这些模型,并在第五章节深入讨论数据集。 Hub 中的模型不仅限于� 阅读全文
posted @ 2025-08-26 17:04
有何m不可
阅读(33)
评论(0)
推荐(0)
摘要:
微调,检查! 这是非常令人高兴的!在前两章中,你了解了模型和 Tokenizer,现在你知道如何针对你自己的数据对它们进行微调。回顾一下,在本章中,你: 了解了 Hub 中的数据集 学习了如何加载和预处理数据集,包括使用动态填充和数据整理器 实现你自己的模型微调和评估 实现了一个较为底层的训练循环 阅读全文
posted @ 2025-08-26 17:02
有何m不可
阅读(29)
评论(0)
推荐(0)
摘要:
一个完整的训练 现在,我们将了解如何在不使用 Trainer 类的情况下实现与上一节相同的结果。同样,我们假设你已经完成了第 2 节中的数据处理。下面对第 2 节内容的一个简短总结,涵盖了你需要在本节之前运行的所有内容: from datasets import load_dataset from 阅读全文
posted @ 2025-08-26 17:00
有何m不可
阅读(51)
评论(0)
推荐(0)
摘要:
使用 Trainer API 微调模型 🤗 Transformers 提供了一个 Trainer 类,可以帮助你在数据集上微调任何预训练模型。在上一节中完成所有数据预处理工作后,你只需完成几个步骤来定义 Trainer 。最困难的部分可能是准备运行 Trainer.train() 所需的环境,因为 阅读全文
posted @ 2025-08-26 15:06
有何m不可
阅读(94)
评论(0)
推荐(0)
摘要:
处理数据 在这一小节你将学习 第一小节 中提到的“如何使用模型中心(hub)加载大型数据集”,下面是用模型中心的数据在 PyTorch 上训练句子分类器的一个例子: import torch from torch.optim import AdamW from transformers import 阅读全文
posted @ 2025-08-26 14:50
有何m不可
阅读(68)
评论(0)
推荐(0)
摘要:
本章简介 在 第二章 我们探索了如何使用 Tokenizer 和预训练模型进行预测。那么如何使用自己的数据集微调预训练模型呢?本章将解决这个问题!你将学到: 如何从模型中心(hub)加载大型数据集 如何使用高级的 Trainer API 微调一个模型 如何使用自定义训练过程 如何利用🤗 Accel 阅读全文
posted @ 2025-08-26 14:40
有何m不可
阅读(28)
评论(0)
推荐(0)
摘要:
基本用法完成! 恭喜你跟随课程走到这里!回顾一下,在这一章中,你已经: 学习了 Transformers 模型的基本构造块。 了解了 Tokenizer 管道的组成。 了解了如何在实践中使用 Transformers 模型。 学习了如何利用 tokenizer 将文本转换为模型可以理解的张量。 设定 阅读全文
posted @ 2025-08-26 14:38
有何m不可
阅读(31)
评论(0)
推荐(0)
摘要:
综合应用 在过去的几个章节中,我们已经尝试尽可能手动完成大部分工作。我们探索了 tokenizer 的运行机制,并且了解了分词、转换为 inputs ID、填充、截断以及注意力掩码的处理方式。 然而,正如我们在第二节中看到的那样,🤗 Transformers API 能够通过一个高级函数为我们处理 阅读全文
posted @ 2025-08-26 14:37
有何m不可
阅读(27)
评论(0)
推荐(0)
摘要:
处理多个序列 在上一节中,我们探讨了最简单的案例:对一个较短的句子进行推理。然而,一些问题已经出现: 我们如何处理多个句子? 我们如何处理不同长度的多个句子? 词汇索引是唯一可以让模型运行的输入吗? 是否存在句子太长的问题? 让我们看看这些问题会带来什么样的问题,以及如何使用🤗 Transform 阅读全文
posted @ 2025-08-26 14:31
有何m不可
阅读(26)
评论(0)
推荐(0)
摘要:
Tokenizers tokenizer 是 NLP 管道的核心组件之一。它们有一个非常明确的目的:将文本转换为模型可以处理的数据。模型只能处理数字,因此 tokenizer 需要将我们的文本输入转换为数字。在本节中,我们将确切地探讨 tokenization 管道中发生的事情。 在 NLP 任务中 阅读全文
posted @ 2025-08-26 14:26
有何m不可
阅读(141)
评论(0)
推荐(0)
摘要:
模型 在本节中,我们将更详细地了解如何创建和使用模型。我们将使用 AutoModel 类,当你希望从 checkpoint 实例化任何模型时,使用它非常方便。 AutoModel 类及其所有的相关类其实就是对库中可用的各种模型的简单包装。它是一个智能的包装,因为它可以自动猜测你的 checkpoin 阅读全文
posted @ 2025-08-26 11:54
有何m不可
阅读(72)
评论(0)
推荐(0)
摘要:
Pipeline 的内部 这是第一部分,根据你使用 PyTorch 或者 TensorFlow,内容略有不同。点击标题上方的平台,选择你喜欢的平台! 让我们从一个完整的示例开始,看看在 第一章 中执行以下代码时在幕后发生了什么 from transformers import pipeline cl 阅读全文
posted @ 2025-08-26 11:22
有何m不可
阅读(29)
评论(0)
推荐(0)
摘要:
本章简介 正如你在 第一章 ,中看到的那样,Transformers 模型通常规模庞大。包含数以百万计到数千万计数十亿的参数,训练和部署这些模型是一项复杂的任务。再者,新模型的推出几乎日新月异,而每种模型都有其独特的实现方式,尝试全部模型绝非易事。 🤗 Transformers 库应运而生,就是为 阅读全文
posted @ 2025-08-26 11:13
有何m不可
阅读(41)
评论(0)
推荐(0)
摘要:
总结 在本章中,你了解了如何使用来自🤗Transformers 的高级函数 pipeline() 处理不同的 NLP 任务。你还了解了如何在模型中心(hub)中搜索和使用模型,以及如何使用推理 API 直接在浏览器中测试模型。 我们从最终的效果的角度讨论了 Transformer 模型的工作方式, 阅读全文
posted @ 2025-08-26 11:11
有何m不可
阅读(31)
评论(0)
推荐(0)
摘要:
偏见和局限性 如果你打算在正式的项目中使用经过预训练或经过微调的模型。请注意:虽然这些模型是很强大,但它们也有局限性。其中最大的一个问题是,为了对大量数据进行预训练,研究人员通常会搜集所有他们能找到的所有文字内容,中间可能夹带一些意识形态或者价值观的刻板印象。 为了快速解释清楚这个问题,让我们回到一 阅读全文
posted @ 2025-08-26 10:40
有何m不可
阅读(39)
评论(0)
推荐(0)
摘要:
编码器-解码器模型 编码器-解码器模型(也称为序列到序列模型)同时使用 Transformer 架构的编码器和解码器两个部分。在每个阶段,编码器的注意力层可以访问输入句子中的所有单词,而解码器的注意力层只能访问位于输入中将要预测单词前面的单词。 这些模型的预训练可以使用训练编码器或解码器模型的方式来 阅读全文
posted @ 2025-08-26 10:37
有何m不可
阅读(38)
评论(0)
推荐(0)
摘要:
“解码器”模型 “解码器”模型仅使用 Transformer 模型的解码器部分。在每个阶段,对于给定的单词,注意力层只能获取到句子中位于将要预测单词前面的单词。这些模型通常被称为自回归模型。 “解码器”模型的预训练通常围绕预测句子中的下一个单词进行。 这些模型最适合处理文本生成的任务。 该系列模型的 阅读全文
posted @ 2025-08-26 10:35
有何m不可
阅读(32)
评论(0)
推荐(0)
摘要:
“编码器”模型 编码器模型仅使用 Transformer 模型的编码器部分。在每次计算过程中,注意力层都能访问整个句子的所有单词,这些模型通常具有“双向”(向前/向后)注意力,被称为自编码模型。 这些模型的预训练通常会使用某种方式破坏给定的句子(例如:通过随机遮盖其中的单词),并让模型寻找或重建给定 阅读全文
posted @ 2025-08-26 10:34
有何m不可
阅读(31)
评论(0)
推荐(0)
摘要:
Transformers 是如何工作的? 在本节中,我们简要了解 Transformer 模型的架构。 一点 Transformers 的发展历史 以下是 Transformer 模型(简要)历史中的一些关键节点: Transformer 架构 于 2017 年 6 月提出。原本研究的重点是翻译任务 阅读全文
posted @ 2025-08-26 09:09
有何m不可
阅读(57)
评论(0)
推荐(0)

浙公网安备 33010602011771号