摘要: 1.CBOW模型 之前已经解释过,无论是CBOW模型还是skip-gram模型,都是以Huffman树作为基础的。值得注意的是,Huffman树中非叶节点存储的中间向量的初始化值是零向量,而叶节点对应的单词的词向量是随机初始化的。 1.1 训练的流程 那么现在假设我们已经有了一个已经构造好的Huff 阅读全文
posted @ 2017-11-04 16:46 Qniguoym 阅读(629) 评论(0) 推荐(0)
摘要: 1.单词的向量化表示 一般来讲,词向量主要有两种形式,分别是稀疏向量和密集向量。 所谓稀疏向量,又称为one-hot representation,就是用一个很长的向量来表示一个词,向量的长度为词典的大小N,向量的分量只有一个1,其他全为0,1的位置对应该词在词典中的索引。 至于密集向量,又称dis 阅读全文
posted @ 2017-11-04 16:02 Qniguoym 阅读(1617) 评论(0) 推荐(0)
摘要: 在使用tf来训练模型的时候,难免会出现中断的情况。这时候自然就希望能够将辛辛苦苦得到的中间参数保留下来,不然下次又要重新开始。 保存模型的方法: 将模型保存好以后,载入也比较方便。 使用tensorboard来使训练过程可视化 tensorflow还提供了一个可视化工具,叫tensorboard.启 阅读全文
posted @ 2017-11-04 15:40 Qniguoym 阅读(2575) 评论(0) 推荐(0)
摘要: 1.矩阵操作 1.1矩阵生成 这部分主要将如何生成矩阵,包括全0矩阵,全1矩阵,随机数矩阵,常数矩阵等 新建一个与给定的tensor类型大小一致的tensor,使其所有元素为0和1 创建一个形状大小为shape的tensor,初始值为value 创建一个常量tensor,按照给出value来赋值,可 阅读全文
posted @ 2017-11-04 14:53 Qniguoym 阅读(2342) 评论(0) 推荐(0)