alex_bn_lee

导航

上一页 1 ··· 132 133 134 135 136 137 138 139 140 ··· 247 下一页

2020年2月11日 #

【458】keras 文本向量化 Vectorization

摘要: 相关类与方法说明: from keras.preprocessing.text import Tokenizer Tokenizer:文本标记实用类。该类允许使用两种方法向量化一个文本语料库: 将每个文本转化为一个整数序列(每个整数都是词典中标记的索引); 或者将其转化为一个向量,其中每个标记的系数 阅读全文

posted @ 2020-02-11 09:43 McDelfino 阅读(525) 评论(0) 推荐(0)

2020年2月8日 #

【457】Word2Vec,Embedding层,词嵌入

摘要: 参考:Word2Vec Tutorial - The Skip-Gram Model 参考:Word2Vec Tutorial Part 2 - Negative Sampling 参考:通俗理解word2vec 参考:word2vec 中的数学原理详解 参考:一文搞懂word embeddding 阅读全文

posted @ 2020-02-08 17:36 McDelfino 阅读(1607) 评论(0) 推荐(0)

2020年2月7日 #

【456】python string 类内容(去除文本标点)

摘要: repr() 函数可以将对象转为 string 类型。 主要用于 NLP 处理,里面存在一些常量列表,包括数字、字母、大写字母、小写字母、标点符号、空格等。 参考:6.1. string — Common string operations 可以用于删除文本中的标点符号,将标点符号 replace 阅读全文

posted @ 2020-02-07 17:36 McDelfino 阅读(1184) 评论(0) 推荐(0)

2020年1月9日 #

【455】Python 徒手实现 卷积神经网络 CNN

摘要: 参考:CNNs, Part 1: An Introduction to Convolutional Neural Networks 参考:CNNs, Part 2: Training a Convolutional Neural Network 目录 1. 动机(Motivation) 通过普通的神 阅读全文

posted @ 2020-01-09 14:26 McDelfino 阅读(3946) 评论(1) 推荐(3)

2019年12月16日 #

【454】ML-DL相关链接

摘要: GD(梯度下降)和SGD(随机梯度下降) 机器学习中的Bias和Variance 机器学习之判别式模型和生成式模型 笔记 | 什么是Cross Entropy 熵与信息增益 简单谈谈Cross Entropy Loss Softmax 和 Softmax-loss的推演 Victor Zhou Bl 阅读全文

posted @ 2019-12-16 11:18 McDelfino 阅读(155) 评论(0) 推荐(0)

上一页 1 ··· 132 133 134 135 136 137 138 139 140 ··· 247 下一页