05 2018 档案

逻辑斯蒂和最大熵-李航
摘要:1、逻辑斯蒂分布 sigmoid 曲线 二项逻辑斯蒂回归模型,实际上是二项判别模型。 基于逻辑斯蒂的似然函数等于每个取值的概率之积。对数似然是对他们取log 多项逻辑斯蒂回归,实际是二项的扩展。 2、最大熵模型 由5.2.2节的熵模型。使我们需要的公式。 所谓最大熵,是指83页定义的条件熵的最大熵。 阅读全文

posted @ 2018-05-17 22:57 maxwell_tesla 阅读(234) 评论(0) 推荐(0)

李航——决策树代码
摘要:感觉最后面的地方有点乱了 有空优化一下。 阅读全文

posted @ 2018-05-16 15:36 maxwell_tesla 阅读(203) 评论(0) 推荐(0)

决策树-李航
摘要:1、所谓决策树模型,是通过重要性依次向下绘出的,越重要的越在上面。 决策树有节点和有向边组成。结点有两种类型,内部节点和叶结点,内部节点表示一个属性,叶子节点表示一个类。 决策树的数学意义在于 ,条件概率分布。举一个简单的例子:一个人去银行贷款,他的年龄、收入、房子、车子都能决定他是否能贷到款。我们 阅读全文

posted @ 2018-05-15 23:01 maxwell_tesla 阅读(155) 评论(0) 推荐(0)

sklearn逻辑回归库函数直接拟合数据
摘要:第一步,划分元素训练集和测试集,用model_selection。train_test_split指定分类数据集,答案,测试大小。 第二部,使用logisticRegression。fit函数来训练x_train,y-train. 第三步,测试,用logisticregression。predict 阅读全文

posted @ 2018-05-14 15:27 maxwell_tesla 阅读(401) 评论(0) 推荐(0)

基于numpy的绘图
摘要:1、读取数据,用np.loadtxt函数读取csv中的数据,前面为读取的文件,后面delimiter表示分界符是什么,对于csv文件,一般用“”,“”作为分界符 2、新矩阵赋值,我们希望用其中两列的数据来绘图,同时,用第三列的数据来决定不同种类的不同颜色。 所以,将前两列数据赋给x,将最后一列数据赋 阅读全文

posted @ 2018-05-14 15:10 maxwell_tesla 阅读(433) 评论(0) 推荐(0)

机器学习——3线性模型
摘要:1、线性模型的基本形式 2、线性模型的线性回归,有序关系均分1,无序关系化向量。 3、由均方误差最小值来进行模型求解的方法叫做最小二乘法。将均方误差关于w关于b求导,得到0,即得最优解。 4、多元线性回归。将数据集表示为矩阵,标记也写成矩阵式。 转置矩阵乘以原矩阵得到平方项,用来搞出来均方差。 5、 阅读全文

posted @ 2018-05-13 22:29 maxwell_tesla 阅读(245) 评论(0) 推荐(0)

机器学习——2模型评估与选择
摘要:一、误差: 误差分为经验误差和泛化误差,都是指理论上的期望误差。 经验误差指在训练集上的误差,泛化误差指得到的模型在新样本上的误差。 泛化误差是我们比较看重的,泛化误差越小越好。但是,在训练中,我们也希望经验误差越小越好,但是有时候经验误差太小,反而会导致泛化误差没那么好。 所以,就引出了另一个名词 阅读全文

posted @ 2018-05-13 21:29 maxwell_tesla 阅读(697) 评论(0) 推荐(0)

循环神经网络入门的一个总结
摘要:1、常用神经网络结构中有个叫RNN的,即循环神经网络。 假设有n个cell,从第一个cell开始说起。 state 0+time0 进入cell ,cell处理,处理后的结果,可以分成两个相同的,一个用来输出该层的输出,另一个送给下一个cell,当然,分成两个相同的之后,想怎么变就怎么变。 对第二个 阅读全文

posted @ 2018-05-06 11:41 maxwell_tesla 阅读(748) 评论(0) 推荐(0)

enumerate
摘要:python内置函数,用于遍历并返回一个可迭代对象的所有对象,和编号 阅读全文

posted @ 2018-05-04 22:33 maxwell_tesla 阅读(102) 评论(0) 推荐(0)

zip
摘要:python里,zip用于打包元组 阅读全文

posted @ 2018-05-04 22:31 maxwell_tesla 阅读(105) 评论(0) 推荐(0)

tf.clip_by_global_norm
摘要:首先明白这个事干嘛的,在我们做求导的时候,会遇到一种情况,求导函数突然变得特别陡峭,是不是意味着下一步的进行会远远高于正常值,这个函数的意义在于,在突然变得陡峭的求导函数中,加上一些判定,如果过于陡峭,就适当减小求导步伐。 tf.clip_by_global_norm(t_list, clip_no 阅读全文

posted @ 2018-05-04 22:23 maxwell_tesla 阅读(2536) 评论(0) 推荐(0)

范数
摘要:L2范数即欧式距离 l3范数即每个值立方和之后开三次根号 阅读全文

posted @ 2018-05-04 22:20 maxwell_tesla 阅读(182) 评论(0) 推荐(0)

tf.trainable_variables和tf.all_variables的对比
摘要:tf.trainable_variables返回的是可以用来训练的变量列表 tf.all_variables返回的是所有变量的列表 阅读全文

posted @ 2018-05-04 22:09 maxwell_tesla 阅读(125) 评论(0) 推荐(0)

tf.concat,连接矩阵
摘要:tf.concat(concat_dim, values, name='concat') concat_dim需要连接的矩阵的维度, values需要连接的两个矩阵。 a=[【1,2,3],【7,8,9】】 b=[【4,5,6],【10,11,12】】 tf.concat(0, [a,b], nam 阅读全文

posted @ 2018-05-04 21:56 maxwell_tesla 阅读(837) 评论(0) 推荐(0)

tf.reshape
摘要:其中,tensor是向量,或者说矩阵 shape是转换后的向量,或者转换后的矩阵形状 【2,1】转换成二行一列 【2,-1】转成二行,几列呢?由于-1的意思是,计算机自己计算需要几列,反正我就要两行。 -1表示计算机自己计算参数 阅读全文

posted @ 2018-05-04 17:58 maxwell_tesla 阅读(195) 评论(0) 推荐(0)

变量命名的区别与联系
摘要:1、tf.variable(<variable_name>)与tf.get_variable(<variable_name>): 前者创建变量的时候,遇到相同变量,会自动处理掉,处理的方式是重命名,1-1 ,1-1-1这样。后者创建变量的时候,实际上是获取变量,当变量存在的时候,直接获取,当变量不存 阅读全文

posted @ 2018-05-04 16:42 maxwell_tesla 阅读(202) 评论(0) 推荐(0)

tf.get_variable函数的使用
摘要:tf.get_variable(name, shape, initializer): name就是变量的名称,shape是变量的维度,initializer是变量初始化的方式,初始化的方式有以下几种: tf.constant_initializer:常量初始化函数 tf.random_normal_ 阅读全文

posted @ 2018-05-04 16:14 maxwell_tesla 阅读(5389) 评论(0) 推荐(0)

tf.nn.rnn_cell.MultiRNNCell
摘要:tf.nn.rnn_cell.MultiRNNCell([list RNNcell], state_is_tuple=True).这个函数里面主要这两个参数,第一个参数就是输入的RNN实例形成的列表,第二个参数就是让状态是一个元祖,官方推荐就是用True。 阅读全文

posted @ 2018-05-04 16:06 maxwell_tesla 阅读(841) 评论(0) 推荐(0)

tensorflow教程:tf.contrib.rnn.DropoutWrapper
摘要:tf.contrib.rnn.DropoutWrapper Defined in tensorflow/python/ops/rnn_cell_impl.py. 阅读全文

posted @ 2018-05-04 16:00 maxwell_tesla 阅读(2105) 评论(0) 推荐(0)