08 2019 档案

XGBoost和LightGBM的参数以及调参
摘要:一、XGBoost参数解释 XGBoost的参数一共分为三类: Note: 我下面介绍的参数都是我觉得比较重要的, 完整参数请戳官方文档 1.通用参数 2.Booster参数 n_estimator: 也作num_boosting_rounds 这是生成的最大树的数目,也是最大的迭代次数。 lear 阅读全文

posted @ 2019-08-28 17:11 tan_2810 阅读(938) 评论(0) 推荐(0)

LGBMClassifier参数
摘要:本文链接:https://blog.csdn.net/starmoth/article/details/845867091.boosting_type=‘gbdt’# 提升树的类型 gbdt,dart,goss,rf2.num_leavel=32#树的最大叶子数,对比xgboost一般为2^(max 阅读全文

posted @ 2019-08-28 17:11 tan_2810 阅读(9057) 评论(0) 推荐(0)

LightGBM调参笔记
摘要:本文链接:https://blog.csdn.net/u012735708/article/details/837497031. 概述在竞赛题中,我们知道XGBoost算法非常热门,是很多的比赛的大杀器,但是在使用过程中,其训练耗时很长,内存占用比较大。在2017年年1月微软在GitHub的上开源了 阅读全文

posted @ 2019-08-28 17:07 tan_2810 阅读(2194) 评论(0) 推荐(0)

LightGBM 调参方法(具体操作)
摘要:其实,对于基于决策树的模型,调参的方法都是大同小异。一般都需要如下步骤: 所以,下面的调参例子是基于上述步骤来操作。数据集为一个(4400+, 1000+)的数据集,全是数值特征,metric采用均方根误差。 (PS:还是吐槽一下,lightgbm参数的同义词(alias)实在是太多了,有时候不同的 阅读全文

posted @ 2019-08-28 17:06 tan_2810 阅读(816) 评论(1) 推荐(1)

计算机会议排名等级
摘要:附件是计算机领域的学术会议等级排名情况,分为A+, A, B, C, L 共5个档次。其中A+属于顶级会议,基本是这个领域全世界大牛们参与和关注最多的会议。国内的研究者能在其中发表论文的话,是很值得骄傲的成就。 A类也是非常好的会议了,尤其是一些热门的研究方向,A类的会议投稿多录用率低,部分A类会议 阅读全文

posted @ 2019-08-19 10:31 tan_2810 阅读(1815) 评论(0) 推荐(0)

Hebye 深度学习中Dropout原理解析
摘要:1. Dropout简介 1.1 Dropout出现的原因 在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。 在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预 阅读全文

posted @ 2019-08-03 00:46 tan_2810 阅读(200) 评论(0) 推荐(0)

Setting up the data and the model
摘要:Table of Contents: Setting up the data and the model Data Preprocessing Weight Initialization Batch Normalization Regularization (L2/L1/Maxnorm/Dropou 阅读全文

posted @ 2019-08-02 23:24 tan_2810 阅读(354) 评论(0) 推荐(0)

导航