摘要:在机器学习用于产品的时候,我们经常会遇到跨平台的问题。比如我们用Python基于一系列的机器学习库训练了一个模型,但是有时候其他的产品和项目想把这个模型集成进去,但是这些产品很多只支持某些特定的生产环境比如Java,为了上一个机器学习模型去大动干戈修改环境配置很不划算,此时我们就可以考虑用预测模型标
阅读全文
摘要:# 常规参数 booster gbtree 树模型做为基分类器(默认) gbliner 线性模型做为基分类器 silent silent=0时,不输出中间过程(默认) silent=1时,输出中间过程 nthread nthread=-1时,使用全部CPU进行并行运算(默认) nthread=1时,
阅读全文
摘要:https://www.tensorflow.org/federated/ TensorFlow Federated (TFF) 是一个开源框架,用于对分散式数据进行机器学习和其他计算。我们开发 TFF 是为了促进联合学习 (FL) 的开放研究和实验,FL 是一种机器学习方法,使我们能够跨多个参与客
阅读全文
摘要:联邦学习简介 联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效
阅读全文
摘要:本文链接:https://blog.csdn.net/Sinsa110/article/details/90697728代码微众银行+杨强教授团队的联邦学习FATE框架代码:https://github.com/WeBankFinTech/FATE谷歌联邦迁移学习TensorFlow Federat
阅读全文
摘要:本文链接:https://blog.csdn.net/linxid/article/details/80785131XGBoost一、API详解xgboost.XGBClassifier1.1 参数1.1.1 通用参数:booster=‘gbtree’ 使用的提升数的种类 gbtree, gblin
阅读全文
摘要:一、XGBoost参数解释 XGBoost的参数一共分为三类: Note: 我下面介绍的参数都是我觉得比较重要的, 完整参数请戳官方文档 1.通用参数 2.Booster参数 n_estimator: 也作num_boosting_rounds 这是生成的最大树的数目,也是最大的迭代次数。 lear
阅读全文
摘要:本文链接:https://blog.csdn.net/starmoth/article/details/845867091.boosting_type=‘gbdt’# 提升树的类型 gbdt,dart,goss,rf2.num_leavel=32#树的最大叶子数,对比xgboost一般为2^(max
阅读全文
摘要:1. Dropout简介 1.1 Dropout出现的原因 在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。 在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预
阅读全文
摘要:Table of Contents: Setting up the data and the model Data Preprocessing Weight Initialization Batch Normalization Regularization (L2/L1/Maxnorm/Dropou
阅读全文
摘要:目录 1、TF-IDF算法介绍 (1)TF是词频(Term Frequency) (2) IDF是逆向文件频率(Inverse Document Frequency) (3)TF-IDF实际上是:TF * IDF 2、TF-IDF应用 3、Python3实现TF-IDF算法 4、NLTK实现TF-I
阅读全文
摘要:一、导入必要的工具包# 运行 xgboost安装包中的示例程序from xgboost import XGBClassifier # 加载LibSVM格式数据模块from sklearn.datasets import load_svmlight_filefrom sklearn.metrics i
阅读全文
摘要:一、导入必要的工具包# 导入必要的工具包import xgboost as xgb # 计算分类正确率from sklearn.metrics import accuracy_score二、数据读取XGBoost可以加载libsvm格式的文本数据,libsvm的文件格式(稀疏特征)如下:1 101:
阅读全文
摘要:XGBoost 的设置有三种参数:一般参数,提升参数和学习参数。 一般参数 取决于提升器,通常是树或线性模型提升参数 取决于选择的提升器的相关参数学习参数 取决于指定学习任务和相应的学习目标一般参数 (general parameters) booster:选择提升器,默认是 treesilent:
阅读全文
摘要:原文:https://blog.csdn.net/zouxy09/article/details/2497199 今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家
阅读全文
摘要:原博客链接1 :https://blog.csdn.net/zengxiantao1994/article/details/72787849 原博客链接2: https://blog.csdn.net/linyanqing21/article/details/50939009 主要内容:总结起来,最
阅读全文
摘要:1.基于树模型提取特征 2.基于L1,L2惩罚值提取特征 3.递归特征消除法提取特征 4.互信息选择法提取特征 5.利用相关系数选择特征 6.卡方检验法提取特征 7.利用方差选择特征 参考:https://www.kesci.com/
阅读全文
摘要:https://github.com/endymecy/spark-ml-source-analysis https://github.com/qqgeogor/kaggle-quora-solution-8th https://ocw.mit.edu/courses/electrical-engi
阅读全文
摘要:一、Importing all the libraries import pandas as pdimport numpy as npfrom matplotlib import pyplot as plt from sklearn.model_selection import cross_val_
阅读全文
摘要:1.输出XGBoost特征的重要性 from matplotlib import pyplot pyplot.bar(range(len(model_XGB.feature_importances_)), model_XGB.feature_importances_) pyplot.show() 也
阅读全文