alex_bn_lee

导航

上一页 1 ··· 122 123 124 125 126 127 128 129 130 ··· 247 下一页

2020年12月25日 #

【505】NLP实战系列(二)—— keras 中的 Embedding 层

摘要: 参考:嵌入层 Embedding 参考:Python3 assert(断言) 1. Embedding 层语法 keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_reg 阅读全文

posted @ 2020-12-25 23:37 McDelfino 阅读(535) 评论(0) 推荐(0)

2020年12月24日 #

【504】NLP实战系列(一)—— one-hot encoding

摘要: 参考:Text Preprocessing —— Tokenizer 参考:Preprocessing » 文本预处理 对于 Embedding 层使用的输入,就是整数矩阵,并不是真正的 one-hot 向量,需要利用 Tokenizer 来实现。 1. Tokenizer 1.1 语法 keras 阅读全文

posted @ 2020-12-24 16:27 McDelfino 阅读(203) 评论(0) 推荐(0)

2020年12月11日 #

【503】Word Embedding 词嵌入的含义

摘要: 参考:Word2Vec and FastText Word Embedding with Gensim 参考:An Intuitive Understanding of Word Embeddings: From Count Vectors to Word2Vec 参考:What the heck 阅读全文

posted @ 2020-12-11 22:49 McDelfino 阅读(143) 评论(0) 推荐(0)

2020年12月9日 #

【502】gensim实现Word2Vec

摘要: 参考:Word Embedding Tutorial: word2vec using Gensim [EXAMPLE] 参考:NLP入门(三)词形还原(Lemmatization) 参考:文本分类实战(一)—— word2vec预训练词向量 参考:Implementing Word2Vec with 阅读全文

posted @ 2020-12-09 23:42 McDelfino 阅读(581) 评论(0) 推荐(0)

2020年12月6日 #

【501】pytorch教程之nn.Module类详解

摘要: 参考:pytorch教程之nn.Module类详解——使用Module类来自定义模型 pytorch中对于一般的序列模型,直接使用torch.nn.Sequential类及可以实现,这点类似于keras,但是更多的时候面对复杂的模型,比如:多输入多输出、多分支模型、跨层连接模型、带有自定义层的模型等 阅读全文

posted @ 2020-12-06 14:25 McDelfino 阅读(3198) 评论(0) 推荐(1)

上一页 1 ··· 122 123 124 125 126 127 128 129 130 ··· 247 下一页