微信扫一扫打赏支持
上一页 1 ··· 53 54 55 56 57 58 59 60 61 ··· 498 下一页
摘要: MinMaxScaler 一、总结 一句话总结: MinMaxScaler是min、max归一化,使用的话先fit,然后再transform归一化操作,也可以合并为fit_transform >>> from sklearn.preprocessing import MinMaxScaler >>> 阅读全文
posted @ 2020-09-26 05:45 范仁义 阅读(7374) 评论(0) 推荐(1)
摘要: Python正则表多行匹配 一、总结 一句话总结: 加个标志参数:re.DOTALL:data['a']=re.findall(r'<h1 class = "postTitle">(.*?)</h1>',response.text,re.re.DOTALL) 加个标志参数:re.S:data['a' 阅读全文
posted @ 2020-09-26 01:17 范仁义 阅读(415) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 11.3、循环神经网络实现股票预测(GRU) 一、总结 一句话总结: 将SimpleRNN层换成GRU层即可,其它一样,非常简单 # 测试集变array并reshape为符合RNN输入要求:[送入样本数, 循环核时间展开步数, 每个时间步输入特征个数] x_test 阅读全文
posted @ 2020-09-25 21:12 范仁义 阅读(705) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 11.2、循环神经网络实现股票预测(LSTM) 一、总结 一句话总结: 将SimpleRNN层换成LSTM层即可,非常简单 # 测试集变array并reshape为符合RNN输入要求:[送入样本数, 循环核时间展开步数, 每个时间步输入特征个数] x_test, y 阅读全文
posted @ 2020-09-25 21:05 范仁义 阅读(579) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 11.1、循环神经网络实现股票预测 一、总结 一句话总结: 用了两个SimpleRNN,后面接Dropout,最后是一个dense层输出结果 model = tf.keras.Sequential([ SimpleRNN(80, return_sequences=T 阅读全文
posted @ 2020-09-25 20:03 范仁义 阅读(696) 评论(0) 推荐(0)
摘要: Word embedding 一、总结 一句话总结: a)、单词对应数字,数字对应编码的向量 b)、这里是用二维来表示,实际情况语言表达能力比较丰富,可以用100维、1000维来表示 c)、keras中,直接layer.Embedding(10,4)表示调用Embedding来编码,10表示10个单 阅读全文
posted @ 2020-09-25 05:44 范仁义 阅读(262) 评论(0) 推荐(0)
摘要: 自然语言处理词向量模型-word2vec 一、总结 一句话总结: “词向量模型是考虑词语位置关系的一种模型。通过大量语料的训练,将每一个词语映射到高维度(几千、几万维以上)的向量当中,通过求余弦的方式,可以判断两个词语之间的关系。” 这个高维的向量就是词向量,现在常用word2vec构成词向量模型。 阅读全文
posted @ 2020-09-25 04:48 范仁义 阅读(231) 评论(0) 推荐(0)
摘要: 词袋模型 一、总结 一句话总结: Bag of words model假定对于一个文本,忽略其词序和语法,句法,将其仅仅看做是一个词集合,或者说是词的一个组合,文本中每个词的出现都是独立的,不依赖于其他词 是否出现 二、词袋模型 转自或参考: 最初的Bag of words,也叫做“词袋”,在信息检 阅读全文
posted @ 2020-09-25 04:47 范仁义 阅读(480) 评论(0) 推荐(0)
摘要: 深度学习中Embedding的理解 一、总结 一句话总结: Embedding就是把高维的one-hot进行降维的过程。 1、Embedding的概念引入? 1)、一维列表也不行,二维稀疏矩阵也不行,怎么办呢?这里就引入了Embedding的概念,由密集向量表示,实现降维! 2)、“并不是每个单词都 阅读全文
posted @ 2020-09-25 04:38 范仁义 阅读(2244) 评论(0) 推荐(0)
摘要: Tensorflow2(预课程) 9.2、循环神经网络实现输入一个字母,预测下一个字母(embedding) 一、总结 一句话总结: 加上Embedding层即可,数据的输入维度变一下 print(x_train) print(y_train) [[0] [3] [2] [1] [4]] [1 4 阅读全文
posted @ 2020-09-24 11:05 范仁义 阅读(409) 评论(0) 推荐(0)
上一页 1 ··· 53 54 55 56 57 58 59 60 61 ··· 498 下一页