上一页 1 2 3 4 5 6 7 8 9 10 ··· 34 下一页
摘要: Universal Optimality of Dijkstra via Beyond-Worst-Case Heaps Breaking the Sorting Barrier for Directed Single-Source Shortest Paths Breaking the Sorti 阅读全文
posted @ 2025-08-15 14:45 jack-chen666 阅读(55) 评论(0) 推荐(0)
摘要: docker run -it --rm --gpus all \ --name gpt_oss_20b_xxxx \ -v /data3/xxxx:/data3/xxxx \ -p 18010:8000 \ --ipc=host \ --entrypoint bash \ vllm/vllm-ope 阅读全文
posted @ 2025-08-13 20:24 jack-chen666 阅读(198) 评论(0) 推荐(0)
摘要: 目录如何融合图像的2D空间和文本的1D序列?MS-RoPEPyTorch 代码示例 多模态可缩放 对角位置编码 Qwen-Image 骨干网络 (MMDiT) 中最核心的创新之一:多模态可缩放旋转位置编码 (Multimodal Scalable Rotary Position Embedding, 阅读全文
posted @ 2025-08-12 09:47 jack-chen666 阅读(226) 评论(0) 推荐(0)
摘要: 目录参考整体流程概览条件编码器 (Condition Encoder) - Qwen2.5-VL图像分词器 (Image Tokenizer) - 变分自编码器 (VAE)骨干扩散模型 (Backbone) - 多模态扩散变换器 (MMDiT)MS-RoPE (Multimodal Scalable 阅读全文
posted @ 2025-08-11 11:40 jack-chen666 阅读(507) 评论(0) 推荐(0)
摘要: 目录1. 什么是\(“Metric”\)(度量)?2. \(β_t\) 的角色是什么?—— “逆温度”3. “串”起来理解:Metric-induced Probability Path打个比方:万有引力为什么softmax里面还有个负号回到物理学比喻那个不可以用距离的倒数来代替负号核心问题:\(d 阅读全文
posted @ 2025-08-02 10:21 jack-chen666 阅读(27) 评论(0) 推荐(0)
摘要: 目录离散单元构成连续的整体 (像素/Token -> 图像)从无序的基态到有序的形态 (噪声 -> 图像)用低维信息控制高维表现 (潜在变量 -> 图像特征)生成是对外部条件的响应 (条件生成) 图片生成领域,你能从这张图片中受到什么启发吗? 深圳“世界之窗”拍摄的针雕艺术墙照片,对于学习图像生成的 阅读全文
posted @ 2025-08-01 15:36 jack-chen666 阅读(37) 评论(0) 推荐(0)
摘要: 目录核心矛盾:模型性能 vs. 采样速度从“连续”回到“离散”的动机DFM 是如何工作的?总结:一条螺旋式上升的路线 阅读FUDOKI相关的文章,发现:连续到离散:Discrete Flow Matching (DFM) ??怎么又回到离散了 之前不是NF(Normalization Flow) - 阅读全文
posted @ 2025-08-01 15:26 jack-chen666 阅读(37) 评论(0) 推荐(0)
摘要: 目录路径 (Path):单颗沙粒的“命运轨迹”速度场 (Velocity Field):所有沙粒的“行动指南”散度 (Divergence):沙子密度的“源”与“汇”连续性方程 (Continuity Equation):连接一切的“物理定律”把它们串成一个完整的故事 DDPM、Flow Match 阅读全文
posted @ 2025-08-01 15:13 jack-chen666 阅读(60) 评论(0) 推荐(0)
摘要: 目录参考宏观目标:模拟“流动”过程微观操作:一个Token的“决策之旅”总结 参考 https://arxiv.org/pdf/2505.20147 终于来到了FUDOKI论文的最后一站——推理(Inference)部分。这部分内容将告诉我们,在模型已经训练好之后,我们如何利用它来从无到有地生成全新 阅读全文
posted @ 2025-08-01 11:34 jack-chen666 阅读(37) 评论(0) 推荐(0)
摘要: 目录参考宏观策略:站在巨人肩膀上的两阶段训练微观操作:单步训练的流程与损失函数FUDOKI的核心优势:可修正的“流动” vs 固定的“填充” 参考 https://arxiv.org/pdf/2505.20147 现在来到了FUDOKI论文中关于模型训练(Training)的部分。这部分内容将前面所 阅读全文
posted @ 2025-08-01 10:46 jack-chen666 阅读(36) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 7 8 9 10 ··· 34 下一页