上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 21 下一页
摘要: “编码器”模型 编码器模型仅使用 Transformer 模型的编码器部分。在每次计算过程中,注意力层都能访问整个句子的所有单词,这些模型通常具有“双向”(向前/向后)注意力,被称为自编码模型。 这些模型的预训练通常会使用某种方式破坏给定的句子(例如:通过随机遮盖其中的单词),并让模型寻找或重建给定 阅读全文
posted @ 2025-08-26 10:34 有何m不可 阅读(31) 评论(0) 推荐(0)
摘要: Transformers 是如何工作的? 在本节中,我们简要了解 Transformer 模型的架构。 一点 Transformers 的发展历史 以下是 Transformer 模型(简要)历史中的一些关键节点: Transformer 架构 于 2017 年 6 月提出。原本研究的重点是翻译任务 阅读全文
posted @ 2025-08-26 09:09 有何m不可 阅读(56) 评论(0) 推荐(0)
摘要: Transformers 能做什么? 在本节中,我们将看看 Transformer 模型可以做什么,并使用 🤗 Transformers 库中的第一个工具: pipeline() 函数。 👀 看到那个右上角的在 Colab 中打开(Open in Colab)的按钮了吗?单击它就可以打开一个包含 阅读全文
posted @ 2025-08-25 18:53 有何m不可 阅读(74) 评论(0) 推荐(0)
摘要: 自然语言处理 在深入了解 Transformer 模型之前,让我们快速回顾一下自然语言处理是什么以及它为什么如此重要。 什么是自然语言处理? NLP 是语言学和机器学习交叉领域,专注于理解与人类语言相关的一切。NLP 任务的目标不仅是单独理解单个单词,而且是能够理解这些单词的上下文。 以下是常见 N 阅读全文
posted @ 2025-08-25 18:44 有何m不可 阅读(42) 评论(0) 推荐(0)
摘要: 本章简介 欢迎来到🤗 Hugging Face 课程 本课程将教你如何使用 Hugging Face 生态系统的库进行自然语言处理(NLP)。这些库包括 🤗 Transformers、🤗 Datasets、🤗 Tokenizers 和 🤗 Accelerate,以及 Hugging Fac 阅读全文
posted @ 2025-08-25 18:41 有何m不可 阅读(54) 评论(0) 推荐(0)
摘要: 课程简介 欢迎来到 Hugging Face 课程!本小节将指导你搭建工作环境。如果你刚开始学习本课程,我们建议你先阅读 第一章 ,然后返回此处搭建环境,以便你亲自尝试和实现代码。 本课程涉及的所有库均以 Python 包形式提供,因此在这里我们将展示如何搭建 Python 环境并安装所需要的库。 阅读全文
posted @ 2025-08-25 18:37 有何m不可 阅读(67) 评论(0) 推荐(0)
摘要: 在这个博客中,您将学习如何微调google/flan-t5-xl用于聊天和对话摘要,使用Hugging Face Transformers。如果您已经了解T5,FLAN-T5在各方面都更出色。对于相同数量的参数,这些模型在超过1000个附加任务上进行了微调,涵盖更多的语言。 在这个例子中,我们将使用 阅读全文
posted @ 2025-08-25 14:11 有何m不可 阅读(40) 评论(0) 推荐(0)
摘要: 多模态LLM最近取得了巨大的进展。我们现在已经有一个强大的开放多模态模型生态系统,主要是视觉-语言模型(VLM),包括Meta AI的Llama-3.2-11B-Vision,Mistral AI的Pixtral-12B,Qwen的Qwen2-VL-7B,以及Allen AI的Molmo-7B-D- 阅读全文
posted @ 2025-08-21 09:14 有何m不可 阅读(186) 评论(0) 推荐(0)
摘要: 一、工作流搭建 这个工作流用到了markdown转换器工具,我们按照上面的操作把工具安装好。 从github上下载通用合同审查助手的DSL文件 开始节点中我们这里有4个参数。 1、请上传需要审查的文本。 2、请选择合同审查主体 3、工作领域 4、合同审查要点 合同审查llm 系统提示词 ## Rol 阅读全文
posted @ 2025-08-14 09:53 有何m不可 阅读(587) 评论(0) 推荐(0)
摘要: 14 种不同的 GGML 模型,对应于不同类型的量化。它们遵循特定的命名约定:“q”+ 用于存储权重的位数(精度)+ 特定变体。以下是所有可能的量化方法及其相应用例的列表,基于 TheBloke 制作的模型卡中的描述,针对llama2模型架构: q2_k:将 Q4_K 用于 attention.vw 阅读全文
posted @ 2025-08-12 10:27 有何m不可 阅读(246) 评论(0) 推荐(0)
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 21 下一页