摘要: 1 Flash Attention算法原理 1.1 Flash Attention Step-by-Step 1.2 Native Softmax \( \text{softmax}(x_i) = \frac{e^{x_i}}{\sum_{k=1}^{N} e^{x_k}} \) torch标准实现 阅读全文
posted @ 2025-09-18 13:57 有何m不可 阅读(31) 评论(0) 推荐(0)