随笔分类 -  Hugging Face 博客

上一页 1 ··· 4 5 6 7 8 9 10 11 下一页
摘要:Open AI 推出的 Whisper 是一个通用语音转录模型,在各种基准和音频条件下都取得了非常棒的结果。最新的 large-v3 模型登顶了 OpenASR 排行榜,被评为最佳的开源英语语音转录模型。该模型在 Common Voice 15 数据集的 58 种语言中也展现出了强大的多语言性能,在 阅读全文
posted @ 2024-01-10 22:48 HuggingFace 阅读(1222) 评论(0) 推荐(0)
摘要:引言 本教程将向你展示在不编写一行代码的情况下,如何构建自己的开源 ChatGPT,这样人人都能构建自己的聊天模型。我们将以 LLaMA 2 基础模型为例,在开源指令数据集上针对聊天场景对其进行微调,并将微调后的模型部署到一个可分享的聊天应用中。全程只需点击鼠标,即可轻松通往荣耀之路!😀 为什么这 阅读全文
posted @ 2024-01-06 00:55 HuggingFace 阅读(547) 评论(0) 推荐(0)
摘要:太长不看版: Hub 上有不少数据集没有语言元数据,我们用机器学习来检测其语言,并使用 librarian-bots 自动向这些数据集提 PR 以添加其语言元数据。 Hugging Face Hub 已成为社区共享机器学习模型、数据集以及应用的存储库。随着 Hub 上的数据集越来越多,元数据,作为一 阅读全文
posted @ 2024-01-04 21:26 HuggingFace 阅读(163) 评论(0) 推荐(0)
摘要:最近,Mistral 发布了一个激动人心的大语言模型: Mixtral 8x7b,该模型把开放模型的性能带到了一个新高度,并在许多基准测试上表现优于 GPT-3.5。我们很高兴能够在 Hugging Face 生态系统中全面集成 Mixtral 以对其提供全方位的支持 🔥! Hugging Fac 阅读全文
posted @ 2024-01-04 12:27 HuggingFace 阅读(1534) 评论(0) 推荐(0)
摘要:在 2023 年,大型语言模型(Large Language Models,简称 LLMs)受到了公众的广泛关注,许多人对这些模型的本质及其功能有了基本的了解。是否开源的议题同样引起了广泛的讨论。在 Hugging Face,我们对开源模型抱有极大热情。开源模型的优势在于,它们不仅促进了研究的可复制 阅读全文
posted @ 2023-12-29 15:12 HuggingFace 阅读(1009) 评论(0) 推荐(3)
摘要:Reformer 如何在不到 8GB 的内存上训练 50 万个词元 Kitaev、Kaiser 等人于 20202 年引入的 Reformer 模型 是迄今为止长序列建模领域内存效率最高的 transformer 模型之一。 最近,人们对长序列建模的兴趣激增,仅今年一年,就涌现出了大量的工作,如 B 阅读全文
posted @ 2023-12-27 22:53 HuggingFace 阅读(422) 评论(0) 推荐(0)
摘要:随着 Mixtral 8x7B (announcement, model card) 的推出,一种称为混合专家模型 (Mixed Expert Models,简称 MoEs) 的 Transformer 模型在开源人工智能社区引起了广泛关注。在本篇博文中,我们将深入探讨 MoEs 的核心组件、训练方 阅读全文
posted @ 2023-12-26 22:21 HuggingFace 阅读(3879) 评论(0) 推荐(0)
摘要:3D 高斯点染技术由 3D Gaussian Splatting for Real-Time Radiance Field Rendering 一文首次提出。作为一种栅格化技术,3D 高斯点染可用于实时且逼真地渲染从一小组图像中学到的场景。本文将详细介绍其工作原理并讨论其对图形学的未来会带来什么影响 阅读全文
posted @ 2023-12-26 17:29 HuggingFace 阅读(869) 评论(0) 推荐(0)
摘要:前段时间我们介绍了一些 HF 核心库在 Google Colab 环境中的内置,包括可以使用 hf:// 资源标识符来调用 Hub 上的数据集等等,详情可以回顾文章:Google Colab 现已支持直接使用 🤗 transformers 库。 今天,随着 huggingface_hub 库的更新 阅读全文
posted @ 2023-12-22 19:45 HuggingFace 阅读(94) 评论(0) 推荐(0)
摘要:引言 自然语言处理 (NLP) 领域的进展日新月异,你方唱罢我登场。因此,在实际场景中,针对特定的任务,我们经常需要对不同的语言模型进行比较,以寻找最适合的模型。本文主要比较 3 个模型: RoBERTa、Mistral-7B 及 Llama-2-7B。我们用它们来解决一个常见问题 —— 对灾难相关 阅读全文
posted @ 2023-12-21 16:00 HuggingFace 阅读(1164) 评论(0) 推荐(1)
摘要:高斯喷溅 (Gaussian Splatting) 技术是一种翻天覆地的渲染手段,能够以 144 帧每秒的速度渲染出高质量的场景,这和传统的图形处理流程截然不同 🎨 这种将高斯数据转换成图像的过程,与训练神经网络相似,但由于不包含任何层级,其速度非常快 🌌 这种图形处理流程的革新,就像过去在 3 阅读全文
posted @ 2023-12-16 15:50 HuggingFace 阅读(408) 评论(0) 推荐(0)
摘要:引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelerate 和 TRL 库。我们还将展示如何在 SLURM 中使用 Accelerate。 完全分片数据并 阅读全文
posted @ 2023-12-12 00:39 HuggingFace 阅读(1203) 评论(0) 推荐(1)
摘要:本文,我们将了解如何基于 PyTorch 最新的 完全分片数据并行 (Fully Sharded Data Parallel,FSDP) 功能用 Accelerate 库来训练大模型。 动机 🤗 随着机器学习 (ML) 模型的规模、大小和参数量的不断增加,ML 从业者发现在自己的硬件上训练甚至加载 阅读全文
posted @ 2023-12-04 20:54 HuggingFace 阅读(2376) 评论(0) 推荐(1)
摘要:Google Colab,全称 Colaboratory,是 Google Research 团队开发的一款产品。在 Colab 中,任何人都可以通过浏览器编写和执行任意 Python 代码。它尤其适合机器学习、数据分析和教育目的。从技术上来说,Colab 是一种托管式 Jupyter 笔记本服务。 阅读全文
posted @ 2023-12-01 23:06 HuggingFace 阅读(752) 评论(0) 推荐(0)
摘要:Gradio 是一个经常用于创建交互式机器学习应用的 Python 库。在以前按照传统方法,如果想对外分享 Gradio 应用,就需要依赖服务器设备和相关资源,而这对于自己部署的开发人员来说并不友好。 欢迎 Gradio-lite ( @gradio/lite ): 一个通过 Pyodide 在浏览 阅读全文
posted @ 2023-12-01 11:53 HuggingFace 阅读(471) 评论(0) 推荐(1)
摘要:视频地址:https://www.bilibili.com/video/BV1eg4y1Q7N5/ 是未来危机,还是眼下的问题?🌍 Sasha Luccioni 是 Hugging Face 团队的道德和可持续人工智能研究员,被邀请做了 TED 演讲 📢 演讲主题也是最近在 AI 伦理道德方面的 阅读全文
posted @ 2023-11-28 18:50 HuggingFace 阅读(38) 评论(0) 推荐(0)
摘要:引言 基于 transformer 的模型已被证明对很多 NLP 任务都非常有用。然而,\(O(n^2)\) 的时间和内存复杂度 (其中 \(n\) 是序列长度) 使得在长序列 (\(n > 512\)) 上应用它们变得非常昂贵,因而大大限制了其应用。最近的几篇论文,如 Longformer 、Pe 阅读全文
posted @ 2023-11-24 01:41 HuggingFace 阅读(1095) 评论(0) 推荐(0)
摘要:LCM 模型 通过将原始模型蒸馏为另一个需要更少步数 (4 到 8 步,而不是原来的 25 到 50 步) 的版本以减少用 Stable Diffusion (或 SDXL) 生成图像所需的步数。蒸馏是一种训练过程,其主要思想是尝试用一个新模型来复制源模型的输出。蒸馏后的模型要么尺寸更小 (如 Di 阅读全文
posted @ 2023-11-20 21:42 HuggingFace 阅读(3391) 评论(2) 推荐(3)
摘要:使用 PPO 算法进行 RLHF 的 N 步实现细节当下,RLHF/ChatGPT 已经变成了一个非常流行的话题。我们正在致力于更多有关 RLHF 的研究,这篇博客尝试复现 OpenAI 在 2019 年开源的原始 RLHF 代码库,其仓库位置位于 openai/lm-human-preferences。尽管它具有 “tensorflow-1.x” 阅读全文
posted @ 2023-11-16 15:02 HuggingFace 阅读(1232) 评论(0) 推荐(1)
摘要:在编程和软件开发这个不断演变的领域中,对效率和生产力的追求催生了许多卓越的创新。其中一个显著的创新就是代码生成模型的出现,如 Codex、StarCoder 和 Code Llama。这些模型在生成类似人类编写的代码片段方面表现出惊人能力,显示出了作为编程助手的巨大潜力。 然而,虽然这些预训练模型在 阅读全文
posted @ 2023-11-15 00:21 HuggingFace 阅读(2121) 评论(0) 推荐(4)

上一页 1 ··· 4 5 6 7 8 9 10 11 下一页