05 2019 档案
摘要:Seq2Seq模型 传统的机器翻译的方法往往是基于单词与短语的统计,以及复杂的语法结构来完成的。基于序列的方式,可以看成两步,分别是 Encoder 与 Decoder ,Encoder 阶段就是将输入的单词序列(单词向量)变成上下文向量,然后 decoder根据这个向量来预测翻译的结果。 enco
阅读全文
摘要:语言模型 对于一个文本中出现的单词 $w_i$ 的概率,他更多的依靠的是前 $n$ 个单词,而不是这句话中前面所有的单词。 $$ P\left(w_{1}, \ldots, w_{m}\right)=\prod_{i=1}^{i=m} P\left(w_{i} | w_{1}, \ldots, w_
阅读全文
摘要:句子的依赖结构表现在哪些单词依赖哪些单词。单词之间的这种关系及可以表示为优先级之间的关系等。 Dependency Parsing 通常情况下,对于一个输入句子:$S=w_{0} w_{1} \dots w_{n}$。 我们用 $w_{0}$ 来表示 ROOT,我们将这个句子转换成一个图 G。 依赖
阅读全文
摘要:前向传播模型 一般我们使用的公式是: $$ a=\frac{1}{1+\exp \left( \left(w^{T} x+b\right)\right)} = \frac{1}{1+\exp \left( \left[w^{T} \quad b\right] \cdot[x \quad 1]\rig
阅读全文
摘要:Theory for f : $\mathbb{R}^{n} \mapsto \mathbb{R}$ 先定义一个标识: scalar product $\langle a | b\rangle=\sum_{i=1}^{n} a_{i} b_{i}$ 我们可以定义导数的公式如下: $$ f(x+h)=
阅读全文
摘要:Global Vectors for Word Representation (GloVe) GloVe 模型包含一个训练在单词 单词的共同出现次数上的加权的最小二乘模型。 什么是Co occurrence Matrix 假设单词与单词的 co occurrence matrix 矩阵用 X 表示,
阅读全文

浙公网安备 33010602011771号