摘要:
目录1. 整体结构回顾2. 输入处理:词嵌入(Embedding)① 单词 → 数字向量② 位置编码(Positional Encoding)3. 自注意力机制(Self-Attention)① 计算 Query, Key, Value② 计算注意力分数③ 加权求和 Value④ 多头注意力(Mul 阅读全文
posted @ 2025-03-24 22:28
guanyubo
阅读(179)
评论(0)
推荐(0)
摘要:
目录1. 先看背景:Transformer 是干啥的?2. 核心思想:像人类一样“联系上下文”3. 关键部件(用快递站类比)① 输入句子 → 拆成单词② 给每个单词贴标签(编码)③ 互相问关系(自注意力机制)④ 汇总信息,输出结果4. 为什么比传统模型好?5. 举个生活例子总结 好的!我用最通俗的方 阅读全文
posted @ 2025-03-24 22:24
guanyubo
阅读(202)
评论(0)
推荐(0)
摘要:
目录1. 2017年:Transformer 的诞生(革命开始)2. 2018年:BERT 和 GPT 登场(NLP 大爆发)(1) BERT(Google 出品)(2) GPT(OpenAI 出品)3. 2020年:GPT-3 和更大规模的模型4. 2021-2023年:ChatGPT 和 AI 阅读全文
posted @ 2025-03-24 22:23
guanyubo
阅读(1518)
评论(0)
推荐(0)
摘要:
目录1. 创建 goroutine2. goroutine 的生命周期3. 管理 goroutine 的生命周期3.1 使用 sync.WaitGroup 等待 goroutine 完成3.2 使用 context 控制 goroutine 的取消3.3 使用 channel 控制 goroutin 阅读全文
posted @ 2025-03-24 10:46
guanyubo
阅读(103)
评论(0)
推荐(0)

浙公网安备 33010602011771号