上一页 1 2 3 4 5 6 7 8 ··· 21 下一页
摘要: 调试训练管道 假如你已经尽可能地遵循 第七章 中的建议,编写了一段漂亮的代码来训练或微调给定任务的模型。但是当你启动命令 trainer.train() 时,可怕的事情发生了:你得到一个错误😱!或者更糟糕的是,虽然看起来一切似乎都正常,训练运行没有错误,但生成的模型很糟糕。在本节中,我们将向你展示 阅读全文
posted @ 2025-08-28 16:15 有何m不可 阅读(23) 评论(0) 推荐(0)
摘要: 在论坛上寻求帮助 Hugging Face 论坛 是从开源团队和更广泛的 Hugging Face 社区获得帮助的好地方。以下是论坛某一天的主页面: 在左侧,你可以看到各种主题分组的所有类别,而右侧显示了最新的主题。一个主题包含标题、类别和描述;它与我们在 第五章 中创建自己的数据集时看到的 Git 阅读全文
posted @ 2025-08-28 15:58 有何m不可 阅读(15) 评论(0) 推荐(0)
摘要: 出现错误时该怎么办 在本节中,我们将研究当你尝试从新调整的 Transformer 模型生成预测时可能发生的一些常见错误。本节为将 第四节 做准备,在那一节中探索如何调试训练阶段本身。 我们为这一节准备了一个 模板仓库 ,如果你想运行本章中的代码,首先需要将模型复制到自己的 Hugging Face 阅读全文
posted @ 2025-08-28 15:48 有何m不可 阅读(35) 评论(0) 推荐(0)
摘要: 介绍 现在,你已经知道如何使用🤗 Transformers 处理最常见的 NLP 任务,可以开始调试自己的项目了!在本章中我们将探讨可能遇到的问题以及解决方法。你将学习如何成功调试代码和训练,以及在无法自行解决问题时如何向社区寻求帮助。如果你发现了 Hugging Face 库中的一个 bug,我 阅读全文
posted @ 2025-08-28 11:28 有何m不可 阅读(12) 评论(0) 推荐(0)
摘要: 精通自然语言处理 如果你在课程中做到了这一步,恭喜你——你现在拥有了用 🤗 Transformers 和 Hugging Face 生态系统解决(几乎)任何 NLP 任务所需的所有知识和工具! 我们见过很多不同的数据整理器,所以我们制作了这个小视频来帮助你找到每个任务使用哪一个: 在完成核心 NL 阅读全文
posted @ 2025-08-28 11:27 有何m不可 阅读(25) 评论(0) 推荐(0)
摘要: 抽取式问答问答 现在我们来看看问答这个任务!这个任务有很多种类型,但我们在本节将要关注的是称为 抽取式(extractive) 问题回答的形式。会有一些问题和文档,其中答案就在文档段落之内。 我们将使用 SQuAD 数据集 微调一个 BERT 模型,其中包括群众工作者对一组维基百科文章提出的问题。以 阅读全文
posted @ 2025-08-28 11:27 有何m不可 阅读(24) 评论(0) 推荐(0)
摘要: 从头开始训练因果语言模型 到目前为止,我们主要使用预训练模型,并通过复用预训练的权重,然后使用新的数据对它们进行微调,以适应新的应用场景。正如我们在 第一章 中看到的,这通常称为 迁移学习(transfer learning) ,对于大多数标注数据稀缺的应用场景,它是一种将 Transformer 阅读全文
posted @ 2025-08-28 10:53 有何m不可 阅读(45) 评论(0) 推荐(0)
摘要: 提取文本摘要 在本节中,我们将看看如何使用 Transformer 模型将长篇文档压缩为摘要,这项任务称为文本摘要。这是最具挑战性的自然语言处理(NLP)任务之一,因为它需要一系列能力,例如理解长篇文章并且生成能够捕捉文档中主要主题的连贯文本。但是,如果做得好,文本摘要是一种强大的工具,可以减轻各个 阅读全文
posted @ 2025-08-27 19:41 有何m不可 阅读(48) 评论(0) 推荐(0)
摘要: 翻译 现在让我们深入研究翻译。这是另一个 sequence-to-sequence 任务 ,着这是一个可以表述为输入是一个序列输出另一个序列的问题。从这个意义上说,这个问题非常类似 文本摘要 ,并且你可以将我们将在此处学习到的一些技巧迁移到其他的序列到序列问题,例如: 风格迁移 创建一个模型将某种风 阅读全文
posted @ 2025-08-27 19:20 有何m不可 阅读(45) 评论(0) 推荐(0)
摘要: 微调掩码语言模型(masked language model) 对于许多涉及 Transformer 模型的 NLP 任务,你可以简单地从 Hugging Face Hub 中获取一个预训练的模型,然后直接在你的数据上对其进行微调,以完成手头的任务。只要用于预训练的语料库与用于微调的语料库没有太大区 阅读全文
posted @ 2025-08-27 19:05 有何m不可 阅读(65) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 ··· 21 下一页