导航

上一页 1 2 3 4 5 6 ··· 17 下一页

2018年12月11日

摘要: 转载:https://blog.csdn.net/kwame211/article/details/80364079 假设我们提供了这样的数据样本(样本值取自于y=3*x1+4*x2):x1 x2 y1 4 192 5 265 1 194 2 29x1和x2是特征,y是预测目标,我们需要以一条直线来 阅读全文

posted @ 2018-12-11 22:33 wzd321 阅读(563) 评论(0) 推荐(0)

摘要: 阅读全文

posted @ 2018-12-11 21:14 wzd321 阅读(152) 评论(0) 推荐(0)

摘要: 什么是优化算法? 优化算法的功能,是通过改善训练方式,来最小化(或最大化)损失函数E(x)。模型内部有些参数,是用来计算测试集中目标值Y的真实值和预测值的偏差程度的,基于这些参数,就形成了损失函数E(x)。比如说,权重(W)和偏差(b)就是这样的内部参数,一般用于计算输出值,在训练神经网络模型时起到 阅读全文

posted @ 2018-12-11 19:50 wzd321 阅读(407) 评论(0) 推荐(0)

2018年12月10日

摘要: 转载: https://www.jianshu.com/p/dcec3f07d3b5 https://blog.csdn.net/dream_catcher_10/article/details/48522339 重要:https://blog.csdn.net/roslei/article/det 阅读全文

posted @ 2018-12-10 16:13 wzd321 阅读(2432) 评论(1) 推荐(1)

摘要: 训练好的词向量模型被保存下来,该模型的本质就是一个m*n的矩阵,m代表训练语料中词的个数,n代表训练时我们设定的词向量维度。当我们训练好模型后再次调用时,就可以从该模型中直接获取到对应词的词向量。 通过上面我们可以拿到每个词的词向量,但是我们任务处理时一般是对句子或文本进行操作。当我们拿到一个词向量 阅读全文

posted @ 2018-12-10 11:04 wzd321 阅读(721) 评论(0) 推荐(0)

摘要: 假设样例按照到来的先后顺序依次定义为。为样本特征,为类别标签。任务是到来一个样例,给出其类别结果的预测值,之后我们会看到真实值,然后根据真实值来重新调整模型参数,整个过程是重复迭代的过程,直到所有的样例完成。这么看来,我们也可以将原来用于批量学习的样例拿来作为在线学习的样例。在在线学习中,我们主要关 阅读全文

posted @ 2018-12-10 09:08 wzd321 阅读(326) 评论(0) 推荐(0)

2018年12月9日

摘要: 级联森林(Cascade Forest) 级联森林结构的图示。级联的每个级别包括两个随机森林(蓝色字体标出)和两个完全随机树木森林(黑色)。 假设有三个类要预测,因此,每个森林将输出三维类向量,然后将其连接以重新表示原始输入。注意,要将前一级的特征和这一级的特征连接在一起——在最后会有一个例子,到时 阅读全文

posted @ 2018-12-09 21:48 wzd321 阅读(2698) 评论(1) 推荐(0)

摘要: ID3,C4.5决策树的生成: 输入:训练集D,特征集A,阈值eps, 输出:决策树T CART决策树的生成: 这里只简单介绍下CART与ID3和C4.5的区别 阅读全文

posted @ 2018-12-09 20:00 wzd321 阅读(196) 评论(0) 推荐(0)

摘要: 转载:http://www.cnblogs.com/liuwu265/p/4690486.html Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来,形成一个性能更加强大的分类器,更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。 1、Baggin 阅读全文

posted @ 2018-12-09 16:32 wzd321 阅读(156) 评论(0) 推荐(0)

2018年12月6日

摘要: 阅读全文

posted @ 2018-12-06 23:01 wzd321 阅读(198) 评论(0) 推荐(0)

上一页 1 2 3 4 5 6 ··· 17 下一页