会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
红豆生南国 是很遥远的事情
种豆南山下 github
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
···
25
下一页
2025年6月24日
大模型-vllm 启动参数 --chat-template -72
摘要: 关于 vLLM "--chat-template" 参数的非常常见且重要的问题。简单来说,这个参数决定了 vLLM 如何将多轮对话(系统、用户、助手消息)格式化成一个单一的字符串,以便模型能够正确理解。 首选:不设置,让 vLLM 自动加载。 对于大多数发布在 Hugging Face Hub 上的
阅读全文
posted @ 2025-06-24 09:44 jack-chen666
阅读(143)
评论(0)
推荐(0)
2025年6月23日
大模型-强化学习Belman方程-71
摘要: 第一步:强化学习到底是什么? (The Big Picture) 想象一下你正在训练一只小狗。这个过程和强化学习非常相似: 智能体 (Agent):你的小狗。在RL中,这就是我们试图训练的模型或算法。 环境 (Environment):你所在的房间或公园。在RL中,这是智能体所处的外部世界。 状态
阅读全文
posted @ 2025-06-23 09:16 jack-chen666
阅读(8)
评论(0)
推荐(0)
2025年6月22日
大模型-Param.data.copy_详细解读-70
摘要: 目录param.data.copy_ 这个用法在 PyTorch 中的含义和功能。常见使用场景: param.data.copy_ 这个用法在 PyTorch 中的含义和功能。 首先,直接回答你的问题:是的,param.data (作为一个张量) 是有 copy_ 这个方法的。 接下来,我们详细解释
阅读全文
posted @ 2025-06-22 23:48 jack-chen666
阅读(5)
评论(0)
推荐(0)
2025年6月19日
大模型-qwen3 RoPE旋转位置编码详细解读-69
摘要: 目录第一部分:位置编码技术发展简史阶段一:绝对位置编码 (Absolute Positional Encoding)阶段二:相对位置编码 (Relative Positional Encoding)阶段三:旋转位置编码 (Rotary Positional Embedding, RoPE)第二部分:
阅读全文
posted @ 2025-06-19 21:10 jack-chen666
阅读(75)
评论(0)
推荐(0)
大模型-qwen3 MoE 详细解读-68
摘要: 目录代码一、MoE 核心思想:为什么要用“混合专家”?二、代码逐层深度解读三、总结与设计思考 代码 class Qwen3MoeSparseMoeBlock(nn.Module): def __init__(self, config): super().__init__() self.num_exp
阅读全文
posted @ 2025-06-19 20:50 jack-chen666
阅读(82)
评论(0)
推荐(0)
大模型-权重绑定: tie_word_embeddings技术的来龙去脉-67
摘要: 目录代码 先说结论: 模型不再需要为 lm_head 单独学习一个巨大的权重矩阵,而是直接“重用”embedding 的权重。 一、核心思想:模型的“输入”与“输出”为何要关联? 要理解权重绑定,我们首先要理解语言模型的两个关键部分: 词嵌入层 (Input Embedding Layer): 作用
阅读全文
posted @ 2025-06-19 20:38 jack-chen666
阅读(53)
评论(0)
推荐(0)
大模型-qwen3 模型结构解读-66
摘要: 目录Decoder-Only架构代码解读Qwen3Attention - 注意力模块Qwen3MLP - 前馈网络模块Qwen3DecoderLayer - 单个解码器层Qwen3Model & Qwen3ForCausalLM - 顶层封装总结 参考:https://zhuanlan.zhihu.
阅读全文
posted @ 2025-06-19 20:19 jack-chen666
阅读(215)
评论(0)
推荐(0)
大模型-张量并行 (Tensor Parallelism) 和 算子融合 (Operator Fusion)技术-65
摘要: class MergedColumnParallelLinear(ColumnParallelLinear): def __init__( self, input_size: int, output_sizes: list[int], bias: bool = False, ): self.outp
阅读全文
posted @ 2025-06-19 19:43 jack-chen666
阅读(57)
评论(0)
推荐(0)
大模型-大模型权重文件打包技术-64
摘要: 好的,完全没有问题。我们来用中文详细介绍一下大模型中 “打包模块 (Packed Modules)” 和 “权重打包 (Weight Packing)” 这项关键技术。 这项技术并不是单一的某个方法,而是一系列优化策略的统称。它的核心目标非常明确:在保证模型效果的同时,大幅提升大模型的推理性能(速度
阅读全文
posted @ 2025-06-19 17:00 jack-chen666
阅读(30)
评论(0)
推荐(0)
大模型-大模型权重文件的加载2-63
摘要: 这段代码的核心目标是高效、安全地将预训练好的大模型权重从硬盘加载到内存(或指定的计算设备)中,并正确地赋值给 nn.Module 模型实例的各个参数。vLLM 是一个为大语言模型(LLM)推理设计的、非常高效的库,因此它的权重加载逻辑也经过了特殊优化,以处理模型并行、量化等复杂情况。 下面我们将逐行
阅读全文
posted @ 2025-06-19 16:41 jack-chen666
阅读(28)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
···
25
下一页
公告