• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
chenqianguan
博客园 首页 新随笔 联系 订阅 订阅 管理

2023年12月9日

模型评价指标
摘要: 准确率、召回率 网址 :https://blog.csdn.net/seagal890/article/details/105059498 True Positive(TP):真正类。样本的真实类别是正类,并且模型识别的结果也是正类。 False Negative(FN):假负类。样本的真实类别是正 阅读全文
posted @ 2023-12-09 19:38 广爷天下无双 阅读(267) 评论(0) 推荐(0)
 
逻辑回归思路
摘要: 整体建模思路 1、拿到样本先分训练集和测试集,0.7或0.8,根据样本数量考虑是否增加验证集,本次不增加验证集。 2、对训练集样本进行初筛。iv大于0.01,相关系数低于80%,缺失率根据变量中文名无特殊情况,不得高于80%。 3、对训练集先用决策树分6-8箱。此时对变量进行二次筛选。主要考虑变量是 阅读全文
posted @ 2023-12-09 14:36 广爷天下无双 阅读(25) 评论(0) 推荐(0)
 
逻辑回归自己尝试
摘要: 自己逻辑回归尝试 1、固定好坏样本,随机种子 先去看分箱情况 data_sd = X1 num_cols=X1.columns import pycard as pc num_iv_woedf = pd.DataFrame() clf = pc.NumBin(max_bins_num=7,min_b 阅读全文
posted @ 2023-12-09 14:34 广爷天下无双 阅读(52) 评论(0) 推荐(0)
 
toad逻辑回归尝试
摘要: from sklearn.model_selection import train_test_split train,test=train_test_split(dd,test_size=0.6) toad.detect(dd) toad.quality(dd,target='target',iv_ 阅读全文
posted @ 2023-12-09 14:33 广爷天下无双 阅读(60) 评论(0) 推荐(0)
 
XGB调参思路
摘要: (1)选择较高的学习率,例如learning_rate=0.1,这样可以减少迭代用时。 (2)然后对 (max_depth , min_child_weight) , (3)在第二步确定的基础上调整 gamma , (4)subsample, colsample_bytree 这些参数进行调整。 ( 阅读全文
posted @ 2023-12-09 14:33 广爷天下无双 阅读(156) 评论(0) 推荐(0)
 
LGBM
摘要: import pandas as pd from lightgbm import LGBMClassifier from sklearn.metrics import accuracy_score df3=pd.concat([df1,df2],axis=1) model = LGBMClassif 阅读全文
posted @ 2023-12-09 14:32 广爷天下无双 阅读(101) 评论(0) 推荐(0)
 
XGB
摘要: from xgboost import XGBClassifier model = XGBClassifier(learning_rate=0.1,max_depth=5,alpha=0.2) model.fit(x_train,y_train) p=model.predict_proba(x_te 阅读全文
posted @ 2023-12-09 14:32 广爷天下无双 阅读(115) 评论(0) 推荐(0)
 
随机森林
摘要: from sklearn.ensemble import RandomForestClassifier model=RandomForestClassifier(n_estimators=22,max_depth=7,min_samples_split=33,min_samples_leaf=18) 阅读全文
posted @ 2023-12-09 14:31 广爷天下无双 阅读(22) 评论(0) 推荐(0)
 
决策树
摘要: 2、决策树 from sklearn import tree clf = tree.DecisionTreeClassifier(criterion="gini",max_depth=5,min_samples_split=2,min_samples_leaf=52) clf.fit(x_train 阅读全文
posted @ 2023-12-09 14:31 广爷天下无双 阅读(36) 评论(0) 推荐(0)
 
逻辑回归
摘要: 2、逻辑回归 2.1常规但是要考虑样本均衡问题 import matplotlib.pyplot as plt x=z.iloc[:,0:7] y=z.iloc[:,7:] from sklearn.model_selection import train_test_split from sklea 阅读全文
posted @ 2023-12-09 14:30 广爷天下无双 阅读(29) 评论(0) 推荐(0)
 
画ks曲线能得到阈值和精确ks
摘要: 尝试模型代码 1、画出p值 实现ks计算 from sklearn.metrics import roc_curve from sklearn.pipeline import make_pipeline import matplotlib import matplotlib.pyplot as pl 阅读全文
posted @ 2023-12-09 14:29 广爷天下无双 阅读(75) 评论(0) 推荐(0)
 
 

公告


博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3