摘要:
这页讲 N-gram 模型里,“概率咋具体算出来” ,大白话拆成 “例子 + 步骤”: 核心逻辑 用 “统计词或词串出现的次数” 来算概率,简单说就是: 想算 “某个词 / 词串的概率”,就看它在大量文本(语料)里 “出现多少次” ,再除以 “总次数 / 相关词串的次数”。 举例子:算 “今天天气不 阅读全文
posted @ 2025-06-22 09:31
m516606428
阅读(5)
评论(0)
推荐(0)
摘要:
为什么这么算 从大白话角度解释为啥这么算,核心是 “语言有前后依赖关系,概率得体现‘前面的词影响后面的词’” ,分三步说: 1. 语言的 “依赖逻辑” 说话时,后面的词不是乱选的,得看前面说了啥。比如 “吃” 后面,常跟 “饭、面、瓜”;但 “看” 后面,常跟 “书、电影、风景” 。所以算句子概率时 阅读全文
posted @ 2025-06-22 09:28
m516606428
阅读(12)
评论(0)
推荐(0)
摘要:
这页讲 N-gram 模型咋算 “一句话像不像人话” 的概率,大白话拆成是啥、咋算、优缺点: 一、核心逻辑(是啥) 把句子拆成 “连续的词或字(w₁、w₂…wₙ)”,算这些词按顺序出现的概率。概率越高,句子越像人话。 二、咋算概率(公式翻译) 比如句子是 “今天天气不错”,拆成 w₁= 今、w₂= 阅读全文
posted @ 2025-06-22 09:26
m516606428
阅读(30)
评论(0)
推荐(0)
摘要:
这页讲语言模型咋分类,大白话逐个拆: 1. 统计语言模型(SLM) 特点:靠 “统计规律” 干活,比如 ngram 模型,就是数 “哪些词经常一起出现” 。 大白话:像 “查字典统计高频搭配”,比如知道 “天气” 常和 “不错” 连,就用这规律判断句子对不对。 2. 神经语言模型(NLM) 特点:用 阅读全文
posted @ 2025-06-22 09:23
m516606428
阅读(45)
评论(0)
推荐(0)
摘要:
这段讲语言模型在手写字识别里咋帮忙,大白话拆解: 核心事儿 手写识别时,机器先把图片里的字,变成一堆 “候选汉字”(比如写得潦草,一个字可能被看成好几种写法 )。但光有候选还不够,语言模型要从这些候选里,挑出 “连起来最像人话、概率最高” 的句子 。 举例子 看手写的 “浙江” ,机器可能识别成 “ 阅读全文
posted @ 2025-06-22 09:18
m516606428
阅读(9)
评论(0)
推荐(0)
摘要:
这部分讲语音识别里语言模型咋把音素变成文字,大白话拆解: 核心事儿 语音转文字时,一个音素序列(比如拼音)可能对应好几种文字组合 。语言模型的作用,就是从这些组合里,挑出 “最像人话、概率最高” 的那句。 举例子 看拼音 “zhong guo zheng zai dui kang xin guan” 阅读全文
posted @ 2025-06-22 09:14
m516606428
阅读(10)
评论(0)
推荐(0)
摘要:
这段讲的是语音识别里语言模型咋工作的,大白话拆解下: 第一步:提取声音特征把你说的话,先转成电脑能懂的 “声学特征向量”(就当是声音的数字密码)。 第二步:声学模型预测音素拿这些 “声音密码” 当输入,丢给声学模型算一算,就能猜出你说的是啥音素(音素≈拼音的最小单位,但更细,还得带声调,比如 “ā” 阅读全文
posted @ 2025-06-22 09:13
m516606428
阅读(19)
评论(0)
推荐(0)

浙公网安备 33010602011771号