上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 24 下一页
摘要: 在 NLP 里,Ngram 的 PPL(Perplexity,困惑度 ) ,就是用来衡量 “语言模型好不好” 的指标,大白话拆解: 1. 干啥用的? PPL 越低 → 模型越 “懂人话”,预测的句子越合理。比如: 模型算 “今天吃饭” 的 PPL 低,算 “今天吃书” 的 PPL 高 → 说明模型知 阅读全文
posted @ 2025-06-22 10:43 m516606428 阅读(19) 评论(0) 推荐(0)
摘要: 要训练出能打赢世界冠军水平的围棋机器人,可参考以下模型和技术路径,核心思路是借鉴 AlphaGo 系列的成功经验: 1. 基础框架:“策略网络 + 价值网络 + 蒙特卡洛树搜索(MCTS)” 策略网络:学 “当前局面下,哪步棋最可能赢”(类似人类选点直觉 )。 价值网络:评估 “当前局面的胜率”(判 阅读全文
posted @ 2025-06-22 10:42 m516606428 阅读(63) 评论(0) 推荐(0)
摘要: 这是 N - gram 语言模型平滑方法里的插值法,核心是 “融合高阶和低阶 ngram 概率,让结果更稳”,大白话拆解: 核心思路 回退法是 “没高阶用低阶”,插值法更灵活 —— “同时用高阶和低阶的概率,按比例混合” 。 公式翻译 算 “当前词 wₙ 在前两个词 wₙ₋₂wₙ₋₁ 后的概率” 时 阅读全文
posted @ 2025-06-22 10:17 m516606428 阅读(8) 评论(0) 推荐(0)
摘要: 这是关于 N - gram 语言模型加 1 平滑(add - one smooth ) 方法的内容,解决 “P (word) 不存在(即某个词在语料中没出现过)时的概率计算问题”,大白话解释: 核心逻辑 当遇到没见过的词(count (word)=0 ),给它的计数 “强行 +1”,同时给总词数也 阅读全文
posted @ 2025-06-22 10:14 m516606428 阅读(15) 评论(0) 推荐(0)
摘要: 回退法里的 Bow(回退概率 ),和 NLP 里的计算方式相关,跟计算机视觉里的词袋模型(BoW)不是一回事。回退法里 Bow 的常见计算思路,大白话拆: 1. 基础逻辑:“从已统计的概率里‘扣’” 回退概率 Bow(ab) ,本质是 **“给‘用短词串代替长词串’这个行为的权重”** 。计算时,通 阅读全文
posted @ 2025-06-22 10:12 m516606428 阅读(24) 评论(0) 推荐(0)
摘要: N-gram 模型的 “回退平滑法”,大白话拆成 “思路 + 例子 + 步骤” ,保证秒懂: 核心思路 当遇到 **“没见过的词串”(比如三元组 a b c 从没出现过 ),别直接给概率 0!而是“退一步”**,找更短的词串(比如二元组 b c )的概率,来凑合用~ 举个栗子(人话翻译公式) 假设要 阅读全文
posted @ 2025-06-22 09:55 m516606428 阅读(18) 评论(0) 推荐(0)
摘要: 吃透 “平滑问题”: 核心矛盾 N-gram 模型靠 “统计词串出现的次数” 算概率,但 “没见过的词串(比如新组合)” ,直接算的话概率是 0 。但理论上,再奇怪的词组合(比如 “苹果吃电脑” ),也不能说 “完全不可能出现”(万一有人脑洞大开这么写呢 ),所以得给它们 “很低但不是 0 的概率” 阅读全文
posted @ 2025-06-22 09:53 m516606428 阅读(10) 评论(0) 推荐(0)
摘要: 这段页讲马尔可夫假设的 “缺陷”,大白话拆成 3 个槽点 + 1 个安慰: 槽点 1:“前面很远的词可能影响当前词”(long distance dependency) 人话:有时候,当前词的意思,得看前面老远的词才能确定 。 例子:“我读过关于马尔可夫的生平的书”“我看过… 电影”“我听过… 故事 阅读全文
posted @ 2025-06-22 09:42 m516606428 阅读(13) 评论(0) 推荐(0)
摘要: 大白话讲马尔可夫假设 “为啥更好”,核心是 “砍断长依赖,让计算变简单,还能凑合有用” ,分三步说: 1. 先吐槽 “原来的方法” 多烂 之前 “以字为单位” 的方法,要算 “第 n 个字的概率,得看前面所有字”,组合爆炸,电脑根本算不动(比如句子长点,要统计的情况指数级增长,直接卡死 )。 2. 阅读全文
posted @ 2025-06-22 09:36 m516606428 阅读(5) 评论(0) 推荐(0)
摘要: 为啥 “以字为单位时组合会爆炸”,大白话讲核心是 “字太多、依赖链太长,要统计的情况指数级增长” ,分两步说: 1. 以字为单位:每个字都要 “看前面所有字” 比如句子 “今天天气不错”,以字为单位时: 第 1 个字 “今”:只算自己出现的概率(P (今) )。 第 2 个字 “天”:得算 “天” 阅读全文
posted @ 2025-06-22 09:35 m516606428 阅读(10) 评论(0) 推荐(0)
上一页 1 ··· 7 8 9 10 11 12 13 14 15 ··· 24 下一页