随笔分类 - AI / HuggingFace课程
摘要:Gradio,回顾! 关于使用 Gradio 构建酷炫的 ML 演示的章节到此结束 —— 希望你会喜欢!回顾一下,在本章中,我们学习了: 如何使用高级 Interface API 创建 Gradio 演示,以及如何配置不同的输入和输出模式。 使用临时链接或者托管在 Hugging Face Spac
阅读全文
摘要:Gradio Blocks 简介 在之前的章节中,我们已经探索并使用 Interface 类创建了一些演示。在本章中,我们将介绍我们新开发的低级 API,名为 gradio.Blocks 。 那么,Interface 和 Blocks 之间有什么区别呢? ⚡ Interface :一个高级 API,
阅读全文
摘要:Interface 的高级功能 现在我们已经能够构建和共享基本界面了,让我们来探索一些 Interface 更高级的功能,比如会话状态和解释。 使用会话状态保存数据 Gradio 支持存储会话状态,以及保留多次提交的数据。会话状态对于构建聊天机器人等需要在用户与模型交互时保持数据的演示非常有用。请注
阅读全文
摘要:与 Hugging Face Hub 整合 如果觉得本地加载模型有些麻烦,为了让使用模型更轻松,Gradio 可以直接与 Hugging Face Hub 和 Hugging Face Spaces 集成。你可以仅使用一行代码从 Hub 和 Spaces 加载在线的数千个模型。 从 Hugging
阅读全文
摘要:与他人分享演示 现在你已经构建了一个演示,你可能希望将其分享给你的同事或者朋友一起体验一下。Gradio 演示可以通过两种方式进行分享:使用 临时的共享链接 或者 在 Spaces 上永久托管。 我们将稍后快速介绍这两种方法。但在分享演示之前,你可能需要完善它 💅。 打磨你的 Gradio 演示:
阅读全文
摘要:了解 Interface 类 在这一节中,我们将更详细地了解 Interface 类,并理解创建 Interface 时使用的主要参数的含义和设置方法。 如何创建 Interface 你会注意到 Interface 类有 3 个必需参数: Interface(fn, inputs, outputs,
阅读全文
摘要:构建你的第一个演示 让我们从安装 Gradio 开始吧!与安装其他 Python 包一样,只需运行: pip install gradio Gradio 支持所有常见的平台,无论是从你最喜欢的 Python IDE、Jupyter notebook 还是 Google Colab 🤯! 所以无论你
阅读全文
摘要:Gradio 简介 在本章中,我们将学习如何为你的机器学习模型构建交互式的演示。 首先,为什么要为你的机器学习模型构建演示? 机器学习开发人员可以轻松地向包括非技术团队或客户在内的广大受众展示他们的工作 研究人员更轻松地重现机器学习模型和效果 质量测试人员或最终用户更容易发现和调试模型的故障点 不同
阅读全文
摘要:第 2 部分完成! 恭喜,你已经完成了课程的第二部分!你现在应该能够处理一系列 NLP 任务,并对它们进行微调或预训练模型。不要忘记在 Model Hub 和社区分享你的结果。 我们迫不及待地想看到你利用所学知识创造出什么样的作品!
阅读全文
摘要:如何写一个好问题 当你在使用 Hugging Face 库时遇到了不正常的情况,你应该及时告诉我们,这样我们才能修复它(对于任何开源库都是一样)。如果你不确定 bug 是在你自己的代码中还是在我们的库中,首先可以在 论坛 进行搜索。论坛中的帖子有可能会帮助你找出问题所在,同时Hugging Face
阅读全文
摘要:在论坛上寻求帮助 Hugging Face 论坛 是从开源团队和更广泛的 Hugging Face 社区获得帮助的好地方。以下是论坛某一天的主页面: 在左侧,你可以看到各种主题分组的所有类别,而右侧显示了最新的主题。一个主题包含标题、类别和描述;它与我们在 第五章 中创建自己的数据集时看到的 Git
阅读全文
摘要:出现错误时该怎么办 在本节中,我们将研究当你尝试从新调整的 Transformer 模型生成预测时可能发生的一些常见错误。本节为将 第四节 做准备,在那一节中探索如何调试训练阶段本身。 我们为这一节准备了一个 模板仓库 ,如果你想运行本章中的代码,首先需要将模型复制到自己的 Hugging Face
阅读全文
摘要:介绍 现在,你已经知道如何使用🤗 Transformers 处理最常见的 NLP 任务,可以开始调试自己的项目了!在本章中我们将探讨可能遇到的问题以及解决方法。你将学习如何成功调试代码和训练,以及在无法自行解决问题时如何向社区寻求帮助。如果你发现了 Hugging Face 库中的一个 bug,我
阅读全文
摘要:精通自然语言处理 如果你在课程中做到了这一步,恭喜你——你现在拥有了用 🤗 Transformers 和 Hugging Face 生态系统解决(几乎)任何 NLP 任务所需的所有知识和工具! 我们见过很多不同的数据整理器,所以我们制作了这个小视频来帮助你找到每个任务使用哪一个: 在完成核心 NL
阅读全文
摘要:抽取式问答问答 现在我们来看看问答这个任务!这个任务有很多种类型,但我们在本节将要关注的是称为 抽取式(extractive) 问题回答的形式。会有一些问题和文档,其中答案就在文档段落之内。 我们将使用 SQuAD 数据集 微调一个 BERT 模型,其中包括群众工作者对一组维基百科文章提出的问题。以
阅读全文
摘要:从头开始训练因果语言模型 到目前为止,我们主要使用预训练模型,并通过复用预训练的权重,然后使用新的数据对它们进行微调,以适应新的应用场景。正如我们在 第一章 中看到的,这通常称为 迁移学习(transfer learning) ,对于大多数标注数据稀缺的应用场景,它是一种将 Transformer
阅读全文
摘要:翻译 现在让我们深入研究翻译。这是另一个 sequence-to-sequence 任务 ,着这是一个可以表述为输入是一个序列输出另一个序列的问题。从这个意义上说,这个问题非常类似 文本摘要 ,并且你可以将我们将在此处学习到的一些技巧迁移到其他的序列到序列问题,例如: 风格迁移 创建一个模型将某种风
阅读全文
摘要:微调掩码语言模型(masked language model) 对于许多涉及 Transformer 模型的 NLP 任务,你可以简单地从 Hugging Face Hub 中获取一个预训练的模型,然后直接在你的数据上对其进行微调,以完成手头的任务。只要用于预训练的语料库与用于微调的语料库没有太大区
阅读全文
摘要:Token 分类 我们将首先探讨的应用是 Token 分类。这个通用任务涵盖了所有可以表述为“给句子中的词或字贴上标签”的问题,例如: 实体命名识别 (NER):找出句子中的实体(如人物、地点或组织)。这可以通过为每个实体指定一个类别的标签,如果没有实体则会输出无实体的标签。 词性标注 (POS):
阅读全文
摘要:章节简介 在 第三章 ,你了解了如何微调文本分类模型。在本章中,我们将处理以下常见的 NLP 任务: Token 分类 掩码语言建模(如 BERT) 文本摘要 翻译 因果语言建模预训练(如 GPT-2) 问答 为此,你需要充分利用在 第三章 中学到的有关 Trainer API 和 🤗 Accel
阅读全文

浙公网安备 33010602011771号