上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 20 下一页
摘要: Pipeline 的内部 这是第一部分,根据你使用 PyTorch 或者 TensorFlow,内容略有不同。点击标题上方的平台,选择你喜欢的平台! 让我们从一个完整的示例开始,看看在 第一章 中执行以下代码时在幕后发生了什么 from transformers import pipeline cl 阅读全文
posted @ 2025-08-26 11:22 有何m不可 阅读(18) 评论(0) 推荐(0)
摘要: 本章简介 正如你在 第一章 ,中看到的那样,Transformers 模型通常规模庞大。包含数以百万计到数千万计数十亿的参数,训练和部署这些模型是一项复杂的任务。再者,新模型的推出几乎日新月异,而每种模型都有其独特的实现方式,尝试全部模型绝非易事。 🤗 Transformers 库应运而生,就是为 阅读全文
posted @ 2025-08-26 11:13 有何m不可 阅读(29) 评论(0) 推荐(0)
摘要: 总结 在本章中,你了解了如何使用来自🤗Transformers 的高级函数 pipeline() 处理不同的 NLP 任务。你还了解了如何在模型中心(hub)中搜索和使用模型,以及如何使用推理 API 直接在浏览器中测试模型。 我们从最终的效果的角度讨论了 Transformer 模型的工作方式, 阅读全文
posted @ 2025-08-26 11:11 有何m不可 阅读(20) 评论(0) 推荐(0)
摘要: 偏见和局限性 如果你打算在正式的项目中使用经过预训练或经过微调的模型。请注意:虽然这些模型是很强大,但它们也有局限性。其中最大的一个问题是,为了对大量数据进行预训练,研究人员通常会搜集所有他们能找到的所有文字内容,中间可能夹带一些意识形态或者价值观的刻板印象。 为了快速解释清楚这个问题,让我们回到一 阅读全文
posted @ 2025-08-26 10:40 有何m不可 阅读(27) 评论(0) 推荐(0)
摘要: 编码器-解码器模型 编码器-解码器模型(也称为序列到序列模型)同时使用 Transformer 架构的编码器和解码器两个部分。在每个阶段,编码器的注意力层可以访问输入句子中的所有单词,而解码器的注意力层只能访问位于输入中将要预测单词前面的单词。 这些模型的预训练可以使用训练编码器或解码器模型的方式来 阅读全文
posted @ 2025-08-26 10:37 有何m不可 阅读(24) 评论(0) 推荐(0)
摘要: “解码器”模型 “解码器”模型仅使用 Transformer 模型的解码器部分。在每个阶段,对于给定的单词,注意力层只能获取到句子中位于将要预测单词前面的单词。这些模型通常被称为自回归模型。 “解码器”模型的预训练通常围绕预测句子中的下一个单词进行。 这些模型最适合处理文本生成的任务。 该系列模型的 阅读全文
posted @ 2025-08-26 10:35 有何m不可 阅读(18) 评论(0) 推荐(0)
摘要: “编码器”模型 编码器模型仅使用 Transformer 模型的编码器部分。在每次计算过程中,注意力层都能访问整个句子的所有单词,这些模型通常具有“双向”(向前/向后)注意力,被称为自编码模型。 这些模型的预训练通常会使用某种方式破坏给定的句子(例如:通过随机遮盖其中的单词),并让模型寻找或重建给定 阅读全文
posted @ 2025-08-26 10:34 有何m不可 阅读(18) 评论(0) 推荐(0)
摘要: Transformers 是如何工作的? 在本节中,我们简要了解 Transformer 模型的架构。 一点 Transformers 的发展历史 以下是 Transformer 模型(简要)历史中的一些关键节点: Transformer 架构 于 2017 年 6 月提出。原本研究的重点是翻译任务 阅读全文
posted @ 2025-08-26 09:09 有何m不可 阅读(32) 评论(0) 推荐(0)
摘要: Transformers 能做什么? 在本节中,我们将看看 Transformer 模型可以做什么,并使用 🤗 Transformers 库中的第一个工具: pipeline() 函数。 👀 看到那个右上角的在 Colab 中打开(Open in Colab)的按钮了吗?单击它就可以打开一个包含 阅读全文
posted @ 2025-08-25 18:53 有何m不可 阅读(51) 评论(0) 推荐(0)
摘要: 自然语言处理 在深入了解 Transformer 模型之前,让我们快速回顾一下自然语言处理是什么以及它为什么如此重要。 什么是自然语言处理? NLP 是语言学和机器学习交叉领域,专注于理解与人类语言相关的一切。NLP 任务的目标不仅是单独理解单个单词,而且是能够理解这些单词的上下文。 以下是常见 N 阅读全文
posted @ 2025-08-25 18:44 有何m不可 阅读(27) 评论(0) 推荐(0)
上一页 1 ··· 4 5 6 7 8 9 10 11 12 ··· 20 下一页