摘要:from http://m.blog.csdn.net/shengshengwang/article/details/75235860 1. RNN结构 解析: (1)one to one表示单输入单输出网络。这里的但输入并非表示网络的输入向量长度为1,而是指数据的长度是确定 的。比如输入数据可以是
阅读全文
摘要:解析: (1)tf.multiply是点乘,即Returns x * y element-wise. (2)tf.matmul是矩阵乘法,即Multiplies matrix a by matrix b, producing a * b.
阅读全文
摘要:因为softmax中指数函数,很容易超出计算机表达的最大值,所以采用分子分母同时乘N的方法,N一般为最大值。
阅读全文
摘要:from http://blog.csdn.net/itplus/article/details/21896453
阅读全文
摘要:from https://www.jianshu.com/p/fe2e7f0e89e5
阅读全文
摘要:前言 在机器学习经典算法中,决策树算法的重要性想必大家都是知道的。不管是ID3算法还是比如C4.5算法等等,都面临一个问题,就是通过直接生成的完全决策树对于训练样本来说是“过度拟合”的,说白了是太精确了。由于完全决策树对训练样本的特征描述得“过于精确” ,无法实现对新样本的合理分析, 所以此时它不是
阅读全文
摘要:什么是剪枝? 剪枝是指将一颗子树的子节点全部删掉,根节点作为叶子节点,以下图为例: 为甚么要剪枝? 决策树是充分考虑了所有的数据点而生成的复杂树,有可能出现过拟合的情况,决策树越复杂,过拟合的程度会越高。 考虑极端的情况,如果我们令所有的叶子节点都只含有一个数据点,那么我们能够保证所有的训练数据都能
阅读全文
摘要:from http://www.cnblogs.com/yangmang/p/7477802.html 问题描述 先来看看问题描述。 当我们使用sigmoid funciton 作为激活函数时,随着神经网络hidden layer层数的增加,训练误差反而加大了,如上图所示。 下面以2层隐藏层神经网络
阅读全文
摘要:1: LSTM结构推导,为什么比RNN好?答案:推导forget gate,input gate,cell state, hidden information等的变化;因为LSTM有进有出且当前的cell informaton是通过input gate控制之后叠加的,RNN是叠乘,因此LSTM可以防
阅读全文
摘要:from https://www.leiphone.com/news/201702/n0uj58iHaNpW9RJG.html?viewType=weixin 摘要 2015年11月9日,Google发布深度学习框架TensorFlow并宣布开源,并迅速得到广泛关注,在图形分类、音频处理、推荐系统和
阅读全文
摘要:from http://blog.csdn.net/so_geili/article/details/71078945
阅读全文
摘要:from http://blog.csdn.net/zc02051126/article/details/46771793 在Python中使用XGBoost 下面将介绍XGBoost的Python模块,内容如下: * 编译及导入Python模块 * 数据接口 * 参数设置 * 训练模型l * 提前
阅读全文
摘要:DataFrame是一个表格型数据结构,与Series不同的是,DataFrame可以含有一组或者有序的列,每列可以使不同的值的类型,它可以被看做成Series的字典。
阅读全文
摘要:type(' i am ')str type(''.join('i am'))str ''.join('sda sadaa') 'sda sadaa' q=str('i am the teacher').split() q ['i', 'am', 'the', 'teacher']''.join(q) 'iamtheteacher'
阅读全文
摘要:转载说明来源:http://blog.csdn.net/malefactor/article/details/50550211 author: 张俊林 原文写得非常好! 原文: 要是关注深度学习在自然语言处理方面的研究进展,我相信你一定听说过Attention Model(后文有时会简称AM模型)这
阅读全文
摘要:相同点:都是组合重构数据. 不同点:concat()不改变维数,而stack改变了维数(待定!!!) tf.concat是连接两个矩阵的操作,请注意API版本更改问题,相应参数也发生改变,具体查看API. tf.concat(concat_dim, values, name='concat') 除去
阅读全文
摘要:[array([[1],[4]]), array([[2],[5]]), array([[3],[6]])] [array([1, 4]), array([2, 5]), array([3, 6])] [array([[1, 2, 3]]), array([[4, 5, 6]])] [array([
阅读全文
摘要:相同点:他们都增加了矩阵的维度,而split()不改变维度! tf.stack()这是一个矩阵拼接的函数,tf.unstack()则是一个矩阵分解的函数 c是拼接,而d和e则是不同维度的分解
阅读全文
摘要:from http://blog.csdn.net/qq_31780525/article/details/72280284 tf.expand_dims() Function tf.expand_dims(input, axis=None, name=None, dim=None) Inserts
阅读全文
摘要:from http://blog.csdn.net/tsq292978891/article/details/78619384 都是一种权值更新算法,类似于SGD算法,其中,RMSProp是RProp算法的改良版。 RProp算法 不同权值参数的梯度的数量级可能相差很大,因此很难找到一个全局的学习步
阅读全文
摘要:from http://www.cnblogs.com/qggg/p/6876942.html 转自 http://blog.csdn.net/sinat_30071459/article/details/50721565 深度学习中经常看到epoch、 iteration和batchsize,下面
阅读全文
摘要:https://www.cnblogs.com/qggg/p/6832342.html
阅读全文
摘要:from http://blog.csdn.net/appleml/article/details/53668237 from http://blog.csdn.net/appleml/article/details/53668237 运行后的结果如下: hello/arr1:0 scope_nam
阅读全文
摘要:1.简介 TextCNN 是利用卷积神经网络对文本进行分类的算法,由 Yoon Kim 在 “Convolutional Neural Networks for Sentence Classification” 一文 (见参考[1]) 中提出. 是2014年的算法. 图1-1 参考[1] 中的论文配
阅读全文
摘要:from http://blog.csdn.net/han_xiaoyang/article/details/52665396
阅读全文
摘要:from http://blog.csdn.net/lujiandong1/article/details/52658675
阅读全文
摘要:1.argparse http://www.jianshu.com/p/fef2d215b91d 命令行解释工具 2.tflearn http://tflearn.org/doc_index/ tensorflow的上层库,和keras,tensorlayer同样的功能
阅读全文
摘要:from http://blog.csdn.net/wangyangzhizhou/article/details/77530479?locationNum=1&fps=1 使用了tensorflow中的nce损失函数,word2vec就是使用了负采样方法
阅读全文
摘要:from http://blog.csdn.net/sxingming/article/details/52164249
阅读全文
摘要:转载到请包括本文地址:http://spaces.ac.cn/archives/3902/ Python基本是我目前工作、计算、数据挖掘的唯一编程语言(除了符号计算用Mathematica外)。当然,基本的Python功能并不是很强大,但它胜在有巨量的第三方扩展库。在选用Python的第三方库时,我
阅读全文
摘要:a=[1,2,3,4] a[::-1] ...... [4,3,2,1]
阅读全文
摘要:from https://www.liaoxuefeng.com/wiki/001374738125095c955c1e6d8bb493182103fac9270762a000/001415616001996f6b32d80b6454caca3d33c965a07611f000 itertools
阅读全文
摘要:from https://www.cnblogs.com/duyang/p/5065418.html 其实defaultdict 就是一个字典,只不过python自动的为它的键赋了一个初始值。这也就是说,你不显示的为字典的键赋初值python不会报错,看下实际例子。 比如你想计算频率 python会
阅读全文
摘要:import pickle s=pickle.dumps(clf) f=open('svm.txt','wb') #使用二进制方式打开,write进字节,否则进字符 f.write(s) f.close() f2=open('svm.txt','rb') #使用二进制打开,read出字节,否则出字符,出 ...
阅读全文