摘要:
调试训练管道 假如你已经尽可能地遵循 第七章 中的建议,编写了一段漂亮的代码来训练或微调给定任务的模型。但是当你启动命令 trainer.train() 时,可怕的事情发生了:你得到一个错误😱!或者更糟糕的是,虽然看起来一切似乎都正常,训练运行没有错误,但生成的模型很糟糕。在本节中,我们将向你展示 阅读全文
posted @ 2025-08-28 16:15
有何m不可
阅读(23)
评论(0)
推荐(0)
摘要:
在论坛上寻求帮助 Hugging Face 论坛 是从开源团队和更广泛的 Hugging Face 社区获得帮助的好地方。以下是论坛某一天的主页面: 在左侧,你可以看到各种主题分组的所有类别,而右侧显示了最新的主题。一个主题包含标题、类别和描述;它与我们在 第五章 中创建自己的数据集时看到的 Git 阅读全文
posted @ 2025-08-28 15:58
有何m不可
阅读(15)
评论(0)
推荐(0)
摘要:
出现错误时该怎么办 在本节中,我们将研究当你尝试从新调整的 Transformer 模型生成预测时可能发生的一些常见错误。本节为将 第四节 做准备,在那一节中探索如何调试训练阶段本身。 我们为这一节准备了一个 模板仓库 ,如果你想运行本章中的代码,首先需要将模型复制到自己的 Hugging Face 阅读全文
posted @ 2025-08-28 15:48
有何m不可
阅读(35)
评论(0)
推荐(0)
摘要:
介绍 现在,你已经知道如何使用🤗 Transformers 处理最常见的 NLP 任务,可以开始调试自己的项目了!在本章中我们将探讨可能遇到的问题以及解决方法。你将学习如何成功调试代码和训练,以及在无法自行解决问题时如何向社区寻求帮助。如果你发现了 Hugging Face 库中的一个 bug,我 阅读全文
posted @ 2025-08-28 11:28
有何m不可
阅读(12)
评论(0)
推荐(0)
摘要:
精通自然语言处理 如果你在课程中做到了这一步,恭喜你——你现在拥有了用 🤗 Transformers 和 Hugging Face 生态系统解决(几乎)任何 NLP 任务所需的所有知识和工具! 我们见过很多不同的数据整理器,所以我们制作了这个小视频来帮助你找到每个任务使用哪一个: 在完成核心 NL 阅读全文
posted @ 2025-08-28 11:27
有何m不可
阅读(25)
评论(0)
推荐(0)
摘要:
抽取式问答问答 现在我们来看看问答这个任务!这个任务有很多种类型,但我们在本节将要关注的是称为 抽取式(extractive) 问题回答的形式。会有一些问题和文档,其中答案就在文档段落之内。 我们将使用 SQuAD 数据集 微调一个 BERT 模型,其中包括群众工作者对一组维基百科文章提出的问题。以 阅读全文
posted @ 2025-08-28 11:27
有何m不可
阅读(24)
评论(0)
推荐(0)
摘要:
从头开始训练因果语言模型 到目前为止,我们主要使用预训练模型,并通过复用预训练的权重,然后使用新的数据对它们进行微调,以适应新的应用场景。正如我们在 第一章 中看到的,这通常称为 迁移学习(transfer learning) ,对于大多数标注数据稀缺的应用场景,它是一种将 Transformer 阅读全文
posted @ 2025-08-28 10:53
有何m不可
阅读(45)
评论(0)
推荐(0)

浙公网安备 33010602011771号