09 2019 档案

陈天奇XGBoost文章解读(未完成)
摘要:这个是我下载的原文在看,然后结合一些网上的资料学习,先贴一个网上的资料。 终于有人说清楚了XGBoost算法 XGBoost阅读之Weighted quantile sketch XGBoost论文翻译+个人注释 阅读全文

posted @ 2019-09-28 22:08 静静的白桦林_andy 阅读(1373) 评论(0) 推荐(0)

手撸GBDT原理
摘要:一直对GBDT里面的具体计算逻辑不太清楚,在网上发现了一篇好博客。 先上总结的关系图 GBDT和XGBoost流程: GBDT对类别变量是怎么处理的? 这些东西都是在网上发现的,讲的挺好的。 GBDT原理与Sklearn源码分析-回归篇 GBDT原理与Sklearn源码分析-分类篇 GBDT原理与实 阅读全文

posted @ 2019-09-26 17:25 静静的白桦林_andy 阅读(289) 评论(0) 推荐(0)

GBDT
摘要:一、目标函数 结构风险最小: 目标函数=损失函数(loss function/cost function代价函数)+lamda*正则项 经验风险最小: 目标函数=损失函数(loss funciton/cost function代价函数) 二、GB理论 用损失函数的负梯度来拟合本轮损失的近似值,进而拟 阅读全文

posted @ 2019-09-24 10:35 静静的白桦林_andy 阅读(311) 评论(0) 推荐(0)

损失函数
摘要:sklearn中GBDT的损失函数 算法类型 损失函数 sklearn.GBDT分类问题 对数损失函数 deviance 指数损失函数exponential sklearn.GBDT回归问题 均方差ls 绝对损失lad huber损失 分位数损失quantile 参考资料: sklearn中GBDT 阅读全文

posted @ 2019-09-23 21:24 静静的白桦林_andy 阅读(321) 评论(0) 推荐(0)

GBDT源码学习(未完成)
只有注册用户登录后才能阅读该文。

posted @ 2019-09-20 15:00 静静的白桦林_andy 阅读(3) 评论(0) 推荐(0)

python库之-------Pandas
摘要:包括两个数据结构:DataFrame和Series 官方文档地址: pandas https://pandas.pydata.org/pandas-docs/stable/index.html series https://pandas.pydata.org/pandas-docs/stable/r 阅读全文

posted @ 2019-09-04 14:55 静静的白桦林_andy 阅读(604) 评论(0) 推荐(0)

python里的apply,applymap和map的区别
摘要:三个函数都是对series或df应用一个函数,但作用形式和应用目标不一样。map是series的方法,applymap是df的方法,apply对两者都可以用。 阅读全文

posted @ 2019-09-04 13:11 静静的白桦林_andy 阅读(7233) 评论(0) 推荐(1)

类、属性、方法(未完成)
摘要:类、属性、方法 阅读全文

posted @ 2019-09-04 10:11 静静的白桦林_andy 阅读(101) 评论(0) 推荐(0)

分箱方法
摘要:无监督分箱:等频、等距 有监督分箱:Bset KS分箱、chi2分箱、决策树分箱 一、chi2分箱 关键词:卡方检验、卡方阈值、显著性水平、自由度 什么是卡方检验?应用于哪些问题?(只应用与分类数据)应用方法?(拟合优度检验和独立性检验) 什么是卡方分箱?(基于卡方检验的有监督的分箱方法) 步骤(根 阅读全文

posted @ 2019-09-04 09:38 静静的白桦林_andy 阅读(4751) 评论(0) 推荐(0)

不同算法的信贷建模流程
摘要:一、逻辑回归评分卡 1.数据分析、数据展示 数据分析、图形化数据展示 2.数据预处理,包括 (1)数据清洗(2)格式转换(3)缺失值填补 3.变量衍生/特征工程 4.分箱(变量离散化) 采用ChiMerge,要求分箱完之后: (1)不超过5箱(2)每箱同时包含好坏样本(3)特殊值如-1,单独成一箱 阅读全文

posted @ 2019-09-03 10:42 静静的白桦林_andy 阅读(1259) 评论(0) 推荐(0)

导航