上一页 1 ··· 27 28 29 30 31 32 33 34 35 ··· 39 下一页

2019年2月2日

tf.nn.embedding_lookup

摘要: tf.nn.embedding_lookup记录 tf.nn.embedding_lookup函数的用法主要是选取一个张量里面索引对应的元素。tf.nn.embedding_lookup(tensor, id):tensor就是输入张量,id就是张量对应的索引,其他的参数不介绍。 例如: impor 阅读全文

posted @ 2019-02-02 21:09 AI大道理 阅读(892) 评论(0) 推荐(0)

2019年1月29日

word2vec

摘要: http://www.360doc.com/content/17/0705/18/10408243_669124232.shtml# -*- coding:utf-8 -*-import mathimport osimport randomimport zipfileimport numpy as 阅读全文

posted @ 2019-01-29 15:49 AI大道理 阅读(470) 评论(0) 推荐(0)

word2vec 细节解析1

摘要: count.extend(collections.Counter(list1).most_common(2))表示:使用collections.Counter统计list1列表重单词的频数,然后使用most_common方法取top2频数的单词。然后加入到count中。# -*- coding:ut 阅读全文

posted @ 2019-01-29 14:18 AI大道理 阅读(402) 评论(0) 推荐(0)

collections-Counter

摘要: 可可_小虾米 做想做的一切,并且一直坚持,相信时间的力量 可可_小虾米 做想做的一切,并且一直坚持,相信时间的力量 可可_小虾米 做想做的一切,并且一直坚持,相信时间的力量 【python深入】collections-Counter使用总结 关于collections的使用,首先介绍:Counter 阅读全文

posted @ 2019-01-29 00:36 AI大道理 阅读(226) 评论(0) 推荐(0)

2019年1月27日

skip-gram模型

摘要: 引言在许多自然语言处理任务中,许多单词表达是由他们的tf-idf分数决定的。即使这些分数告诉我们一个单词在一个文本中的相对重要性,但是他们并没有告诉我们单词的语义。Word2vec是一类神经网络模型——在给定无标签的语料库的情况下,为语料库中的单词产生一个能表达语义的向量。这些向量通常是有用的: 通 阅读全文

posted @ 2019-01-27 22:35 AI大道理 阅读(949) 评论(0) 推荐(0)

动量Momentum梯度下降算法

摘要: 梯度下降是机器学习中用来使模型逼近真实分布的最小偏差的优化方法。 在普通的随机梯度下降和批梯度下降当中,参数的更新是按照如下公式进行的: W = W - αdW b = b - αdb 其中α是学习率,dW、db是cost function对w和b的偏导数。 随机梯度下降和批梯度下降的区别只是输入的 阅读全文

posted @ 2019-01-27 21:25 AI大道理 阅读(1185) 评论(0) 推荐(0)

Redis

摘要: 定义 定义 redis是一个key-value存储系统。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。这些数据类型都支持push/pop、add/rem 阅读全文

posted @ 2019-01-27 20:14 AI大道理 阅读(333) 评论(0) 推荐(0)

mySQL

摘要: mySQL (关系型数据库管理系统) MySQL是一个关系型数据库管理系统,由瑞典MySQL AB 公司开发,目前属于 Oracle 旗下产品。MySQL 是最流行的关系型数据库管理系统之一,在 WEB 应用方面,MySQL是最好的 RDBMS (Relational Database Manage 阅读全文

posted @ 2019-01-27 20:12 AI大道理 阅读(223) 评论(0) 推荐(0)

梯度消失与梯度爆炸

摘要: https://blog.csdn.net/qq_25737169/article/details/78847691 产生消失的梯度问题的原因 先看一个极简单的深度神经网络:每一层都只有一个单一的神经元。如下图: 代价函数C对偏置b1的偏导数的结果计算如下: 先看一下sigmoid 函数导数的图像: 阅读全文

posted @ 2019-01-27 16:56 AI大道理 阅读(280) 评论(0) 推荐(0)

早停法(Early Stopping)

摘要: 一、早停法简介(Early Stopping)当我们训练深度学习神经网络的时候通常希望能获得最好的泛化性能(generalization performance,即可以很好地拟合数据)。但是所有的标准深度学习神经网络结构如全连接多层感知机都很容易过拟合:当网络在训练集上表现越来越好,错误率越来越低的 阅读全文

posted @ 2019-01-27 16:13 AI大道理 阅读(3933) 评论(0) 推荐(0)

上一页 1 ··· 27 28 29 30 31 32 33 34 35 ··· 39 下一页

导航