会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Hugging Face 博客
The AI community building the future.
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
11
12
13
14
15
16
17
18
19
···
36
下一页
2024年2月24日
小红书 x Hugging Face 邀请你一起晒「创意新春照」
摘要: 不藏了,近期全网爆火的AI 写真项目 InstantID,正是来自小红书社区技术创作发布团队。 为了迎接龙年春节的到来,我们的InstantID全新推出「Spring Festival」新春风格!并与著名开源模型社区 Hugging Face 联手,在小红书 APP 上,特别策划 「你的新春照我包了
阅读全文
posted @ 2024-02-24 22:41 HuggingFace
阅读(351)
评论(0)
推荐(2)
2024年2月22日
欢迎 Gemma: Google 最新推出开源大语言模型
摘要: 今天,Google 发布了一系列最新的开放式大型语言模型 —— Gemma!Google 正在加强其对开源人工智能的支持,我们也非常有幸能够帮助全力支持这次发布,并与 Hugging Face 生态完美集成。 Gemma 提供两种规模的模型:7B 参数模型,针对消费级 GPU 和 TPU 设计,确保
阅读全文
posted @ 2024-02-22 22:23 HuggingFace
阅读(884)
评论(0)
推荐(0)
开源大语言模型作为 LangChain 智能体
摘要: 概要 开源大型语言模型 (LLMs) 现已达到一种性能水平,使它们适合作为推动智能体工作流的推理引擎: Mixtral 甚至在我们的基准测试中 超过了 GPT-3.5,并且通过微调,其性能可以轻易的得到进一步增强。 引言 针对 因果语言建模 训练的大型语言模型 (LLMs) 可以处理广泛的任务,但它
阅读全文
posted @ 2024-02-22 21:42 HuggingFace
阅读(1667)
评论(1)
推荐(3)
2024年2月20日
使用 🤗 Optimum Intel 在英特尔至强上加速 StarCoder: Q8/Q4 及投机解码
摘要: 引言 近来,随着 BigCode 的 StarCoder 以及 Meta AI 的 Code Llama 等诸多先进模型的发布,代码生成模型变得炙手可热。同时,业界也涌现出了大量的致力于优化大语言模型 (LLM) 的运行速度及易用性的工作。我们很高兴能够分享我们在英特尔至强 CPU 上优化 LLM
阅读全文
posted @ 2024-02-20 21:14 HuggingFace
阅读(240)
评论(0)
推荐(0)
2024年2月19日
LLaMA 2 - 你所需要的一切资源
摘要: 摘录 关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。 LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,并免费用于研究和商业用途。LLaMA 2 预训练模型在 2 万亿个标记上进
阅读全文
posted @ 2024-02-19 21:08 HuggingFace
阅读(1007)
评论(1)
推荐(2)
2024年2月9日
听说有 Hugging Face 陪伴的春节,是这样的…
摘要: 辞旧迎新春节到,家家户户好热闹。Hugging Face 中国团队成员祝各位社区成员们新春快乐,万事如意! 过去的一年我们持续看到 AI 技术的腾飞和发展,以及诸多机构为开源 AI 作出巨大的贡献。非常感谢将模型、数据集和应用 Demo 发布在 Hugging Face 上的团队,新的一年,我们也会
阅读全文
posted @ 2024-02-09 12:38 HuggingFace
阅读(78)
评论(0)
推荐(0)
2024年2月8日
扩展说明: 指令微调 Llama 2
摘要: 这篇博客是一篇来自 Meta AI,关于指令微调 Llama 2 的扩展说明。旨在聚焦构建指令数据集,有了它,我们则可以使用自己的指令来微调 Llama 2 基础模型。 目标是构建一个能够基于输入内容来生成指令的模型。这么做背后的逻辑是,模型如此就可以由其他人生成自己的指令数据集。这在当想开发私人个
阅读全文
posted @ 2024-02-08 17:01 HuggingFace
阅读(2090)
评论(0)
推荐(0)
2024年2月6日
句子嵌入: 交叉编码和重排序
摘要: 这个系列目的是揭开嵌入的神秘面纱,并展示如何在你的项目中使用它们。第一篇博客 介绍了如何使用和扩展开源嵌入模型,选择现有的模型,当前的评价方法,以及生态系统的发展状态。第二篇博客将会更一步深入嵌入并解释双向编码和交叉编码的区别。进一步我们将了解 检索和重排序 的理论。我们会构建一个工具,它可以来回答
阅读全文
posted @ 2024-02-06 20:44 HuggingFace
阅读(2345)
评论(0)
推荐(2)
2024年2月5日
全世界 LoRA 训练脚本,联合起来!
摘要: 来自社区的 SD-XL Dreambooth LoRA 微调最佳实践指南 太长不看版 我们把 Replicate 在 SDXL Cog 训练器中使用的枢轴微调 (Pivotal Tuning) 技术与 Kohya 训练器中使用的 Prodigy 优化器相结合,再加上一堆其他优化,一起对 SDXL 进
阅读全文
posted @ 2024-02-05 21:04 HuggingFace
阅读(1881)
评论(0)
推荐(0)
2024年1月29日
随机 Transformer
摘要: 在这篇博客中,我们将通过一个端到端的示例来讲解 Transformer 模型中的数学原理。我们的目标是对模型的工作原理有一个良好的理解。为了使内容易于理解,我们会进行大量简化。我们将减少模型的维度,以便我们可以手动推理模型的计算过程。例如,我们将使用 4 维的嵌入向量代替原始的 512 维嵌入向量。
阅读全文
posted @ 2024-01-29 21:44 HuggingFace
阅读(460)
评论(0)
推荐(0)
上一页
1
···
11
12
13
14
15
16
17
18
19
···
36
下一页
公告