摘要: 本文介绍生成模型开发常用Python库,重点讲解Diffusers和Accelerate的基本使用。Accelerate支持分布式训练、混合精度训练、梯度累计等加速方法,简化多显卡训练流程;Diffusers包含Scheduler(加噪处理、逐步解噪)、Stable Diffusion Pipeline等,辅助实现生成模型的训练与推理,为算法工程师提供高效工具支持。 阅读全文
posted @ 2025-08-07 09:54 Big-Yellow-J 阅读(377) 评论(0) 推荐(0)
摘要: 图神经网络基础理论及实操 推荐阅读: 1、https://github.com/PacktPublishing/Hands-On-Graph-Neural-Networks-Using-Python 2、GAT:http://arxiv.org/abs/1710.10903 3、GCN:http:/ 阅读全文
posted @ 2024-02-24 21:26 Big-Yellow-J 阅读(760) 评论(0) 推荐(0)
摘要: 大语言模型训练分为预训练、监督微调(SFT)、人类反馈强化学习(RLHF)三个阶段,RLHF用于对齐人类偏好,核心优化算法包含DPO、PPO、GRPO三类。DPO直接基于人类偏好数据微调,通过对比优选、劣选回答的生成概率优化,无需独立奖励模型。PPO为策略梯度类算法,通过截断更新幅度、引入GAE广义优势估计保证训练稳定性,需搭配奖励模型、价值模型计算损失。GRPO为DPO的组级扩展,通过同prompt下多响应的组内归一化优势计算优化,可缓解输出变长、奖励方差异常问题。 阅读全文
posted @ 2026-03-03 12:30 Big-Yellow-J 阅读(36) 评论(0) 推荐(0)
摘要: 梳理强化学习DPO、PPO、GRPO三类优化算法常见的两类训练崩溃问题。熵坍缩源于动作概率与优势值协方差结构性恒正,训练初期策略熵快速趋近于0,模型失去探索性,效果陷入瓶颈,可通过DAPO调整GRPO的epsilon高低边界、动态温度调度仅对top20%高熵token计算策略梯度两种方案缓解,对应GRPO可配置epsilon_low、epsilon_high、top_entropy_quantile参数实现。奖励坍缩由GRPO组内归一化抹平多奖励信号相对差异导致,训练信号分辨率大幅下降,可采用GDPO对各奖励分量独立标准化后加权求和的方案解决。 阅读全文
posted @ 2026-03-03 12:30 Big-Yellow-J 阅读(125) 评论(0) 推荐(0)
摘要: 扩散模型生成加速策略主要包括加速框架优化、Cache策略及量化技术。加速框架方面,可通过指定attention计算后端(如flash_attn)、torch.compile编译、torch.channels_last优化内存访问,或使用xFormers加速attention计算并降低显存,配合CPU卸载、设备分配等显存优化措施。Cache策略利用扩散过程时间冗余,如DeepCache缓存UNet高层特征、FORA复用DiT的Attn和MLP层特征,FBCache基于First Block L1误差判断是否复用残差,CacheDit结合前n层缓存与阈值判断实现加速。量化技术通过PTQ或QAT降低显存并加速,如Bitsandbytes的即时可逆int4/int8量化、SVDQuant分解权重吸收异常值后量化残差、GGUF格式的紧凑编码与多种PTQ量化级别。测试显示,结合channel优化、flash_attn及cache-dit等策略可有效缩短生图时间。 阅读全文
posted @ 2026-01-25 23:16 Big-Yellow-J 阅读(518) 评论(0) 推荐(0)
摘要: Page Attention是优化KV-cache内存管理的方法,可解决预留浪费、内部及外部内存碎片化问题,通过将KV-cache划分为固定大小Block,利用Block Table维护逻辑与物理映射,有效管理非连续内存;同时处理Softmax计算中的数值溢出与全局信息问题。vllm框架支持离线与在线调用,初始化过程包括模型加载、KV Cache显存预分配(计算可用内存、num_blocks及总token数)并加载到GPU,提升内存使用效率。 阅读全文
posted @ 2026-01-21 10:12 Big-Yellow-J 阅读(150) 评论(0) 推荐(0)
摘要: From:https://www.big-yellow-j.top/posts/2025/10/11/Quantized.html 模型量化技术 简单了解几个概念: 量化:是一种模型压缩的常见方法,将模型权重从高精度(如FP16或FP32)量化为低比特位(如INT8、INT4)。常见的量化策略可以分 阅读全文
posted @ 2025-11-01 11:05 Big-Yellow-J 阅读(513) 评论(0) 推荐(0)
摘要: 评价指标 准确率/精确率/召回率 Positive (预测到的正例) Negative (预测到的反例) True (预测结果为真) TP TN False (预测结果为假) FP FN 争对正案例的计算: 1、准确率计算方式(ACC):\(Acc= \frac{TP+TN}{TP+TN+FP+FN 阅读全文
posted @ 2025-11-01 11:04 Big-Yellow-J 阅读(126) 评论(0) 推荐(0)
摘要: 本文详细解析QwenVL2.5模型的处理流程及微调方法,包括模板化输入(通过processor.apply_chat_template处理对话messages,含<|im_start|>等标记模拟用户/assistant对话)、编码输入(图像处理采用smart_resize动态调整分辨率确保可被patch_size整除,经归一化后转为Vit的patch序列;文本通过tokenizer编码)、模型处理(视觉Transformer对pixel_values进行Conv3d处理生成特征,结合window-attention计算)。同时,阐述了SFT微调流程:数据层面构建对话模板生成input_ids、pixel_values等输入,模型层面采用QLoRA优化并结合gradient_checkpointing等显存优化策略。强化学习部分涵盖DPO(处理三元组数据计算chosen/rejected_logps,通过KL散度等计算loss)和GRPO(无需ref_model,利用reward_function及高熵过滤优化loss),为QwenVL2.5-3B的实际应用与性能提升提供技 阅读全文
posted @ 2025-09-22 22:22 Big-Yellow-J 阅读(1904) 评论(0) 推荐(0)
摘要: 最新内容:https://www.big-yellow-j.top/posts/2025/08/28/MultiModal2.html 对于多模态系列模型大致的多模态大语言模型的通用模型框架和每个模块的一些实现方法[1]: 基本上就是对于图片/视频等通过不同的视觉编码器(Vit/Clip等)进行编码 阅读全文
posted @ 2025-09-22 22:21 Big-Yellow-J 阅读(375) 评论(0) 推荐(0)
摘要: 本文介绍基座扩散模型,涵盖基于Unet的SD1.5、SDXL、Imagen及基于DiT框架的Hunyuan-DiT等。对比SD1.5与SDXL差异:SDXL采用双CLIP编码器(OpenCLIP-ViT/G+CLIP-ViT/L)提升文本理解,默认输出1024x1024图像;解析Imagen多阶段生成策略、DiT的patch分割与adaLN结构,以及ControlNet、DreamBooth等Adapter技术在图像生成控制中的应用。 阅读全文
posted @ 2025-08-07 09:44 Big-Yellow-J 阅读(616) 评论(0) 推荐(0)
levels of contents