上一页 1 2 3 4 5 6 ··· 46 下一页
摘要: 在深入探讨 PyTorch 中的 Storage 类以及其在参数 offload 场景中的应用之前,让我们首先了解一下 PyTorch 和它的基础组件。PyTorch 是一个广泛使用的开源机器学习库,它不仅提供了强大的计算图功能和自动梯度计算,还允许开发者直接操作底层数据结构,这其中就包括 Stor 阅读全文
posted @ 2024-04-21 19:07 marsggbo 阅读(583) 评论(0) 推荐(0)
摘要: 1注册账号 先在网页上注册账号,之后需要联系导师或者管理员把你添加到对应的集群里去,例如我加入的是 Lonestar6 集群。 之后需要跟着这个教程绑定 MFA 软件(可以是 DUO 或者 1password) 之后登录账号,系统会要求先后输入你的账户密码和 MFA 的 6 位数 token loc 阅读全文
posted @ 2024-04-10 14:26 marsggbo 阅读(175) 评论(0) 推荐(0)
摘要: 原文: 从continuous batching到vLLM中的batching - 不知叫什么好的文章 - 知乎 https://zhuanlan.zhihu.com/p/688551989 阅读全文
posted @ 2024-04-04 10:32 marsggbo 阅读(3086) 评论(0) 推荐(0)
摘要: 1. Block 概览 vLLM 的一个很大创新点是将物理层面的 GPU 和 CPU 可用内存切分成若干个 block,这样可以有效降低内存碎片化问题。具体而言,vLLM 的 block 分为逻辑层面(logical)和物理层面(physical),二者之间存在映射关系。下图很好解释了两个层面 bl 阅读全文
posted @ 2024-03-23 20:48 marsggbo 阅读(6527) 评论(0) 推荐(1)
摘要: 标题党一下,顺便蹭一下 OpenAI Sora大模型的热点,主要也是回顾一下扩散模型的原理。 1. 简单理解扩散模型 简单理解,扩散模型如下图所示可以分成两部分,一个是 forward,另一个是 reverse 过程: forward:这是加噪声的过程,表示为\(q(X_{0:T})\),即在原图( 阅读全文
posted @ 2024-02-22 16:49 marsggbo 阅读(1131) 评论(0) 推荐(4)
摘要: 1. Quick Start 创建如下代码,命名为 run.py from vllm import LLM, SamplingParams prompts = [ "Have you followed marsggbo in Zhihu?", "你一键三连了吗?" ] # 输入prompts sam 阅读全文
posted @ 2024-02-04 18:14 marsggbo 阅读(10919) 评论(1) 推荐(2)
摘要: 我的环境如下: nvidia-smi 显示 cuda 版本是 11.7 目前最新vllm 要求的 torch 版本是 2.1.2,该版本要求的 cuda 版本是 11.8,所以不匹配。执行安装会遇到如下错误 RuntimeError: The NVIDIA driver on your system 阅读全文
posted @ 2024-01-15 20:35 marsggbo 阅读(6937) 评论(9) 推荐(0)
摘要: 原文: https://zhuanlan.zhihu.com/p/144697348 阅读全文
posted @ 2023-12-16 16:24 marsggbo 阅读(20) 评论(0) 推荐(0)
摘要: 论文 DeepSpeed-MoE: Advancing Mixture-of-Experts Inference and Training to Power Next-Generation AI Scale 1. Introduction 现有的 MoE 方法在正式使用场景中存在的挑战: 场景局限: 阅读全文
posted @ 2023-12-07 17:32 marsggbo 阅读(4468) 评论(0) 推荐(0)
摘要: 这个报错原因很好解决,只需要在引入包的时候调用下面的语句就可以了 import torch.fx 阅读全文
posted @ 2023-12-02 18:23 marsggbo 阅读(754) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 ··· 46 下一页