Fork me on GitHub
上一页 1 2 3 4 5 6 7 8 ··· 12 下一页
摘要: 随机森林 这篇好好看看怎么调参的 我调的最佳参数如下,准确率为0.8428671546929973,细节看上篇文章: 阅读全文
posted @ 2019-05-23 16:58 Afant1 阅读(337) 评论(0) 推荐(0) 编辑
摘要: 在 "这里" 下载数据集 导入模块 数据预处理 通过图表显示数据 随机森林预测 0.8316311996368176 进行调参,先调n_estimators 进行细化,得到当n_estimators为145时,准确率最高 确定n_estimators,开始进一步调整max_depth 得到当深度为1 阅读全文
posted @ 2019-05-23 16:42 Afant1 阅读(993) 评论(0) 推荐(0) 编辑
摘要: SKlearn中的线性回归 阅读全文
posted @ 2019-05-21 15:57 Afant1 阅读(176) 评论(0) 推荐(0) 编辑
摘要: SKlearn中的Adaboost使用 主要调的参数:第一部分是对我们的Adaboost的框架进行调参, 第二部分是对我们选择的弱分类器进行调参。 使用 Adaboost 进行手写数字识别 导入库,载入数据 看下图像: 使用深度为 1 的决策树分类器,准确率是0.2641850696745583 通 阅读全文
posted @ 2019-05-20 17:28 Afant1 阅读(267) 评论(0) 推荐(0) 编辑
摘要: ![Alt text](https://img2018.cnblogs.com/blog/1298490/201905/1298490-20190520093811079-291730821.jpg) ![Alt text](https://img2018.cnblogs.com/blog/1298490/201905/1298490-20190520093808937-398365394.jpg... 阅读全文
posted @ 2019-05-20 09:39 Afant1 阅读(148) 评论(0) 推荐(0) 编辑
摘要: 之前写过反序列化报错回显。 1、远程server放恶意jar包,服务器去远程server来请求恶意jar包 2、利用defineClass加载byte[]返回Class对象 从 "这里" 找到回显的poc,这个poc用的就是方法2. 详细POC如下: defineClass去加载com.supere 阅读全文
posted @ 2019-05-18 22:16 Afant1 阅读(1847) 评论(1) 推荐(0) 编辑
摘要: 总结: 1. 量纲化(归一化,标准化) 2. 缺失值处理(补0、均值、中值、众数、自定义) 3. 编码/哑变量:忽略数字中自带数学性质(文字 数值类型) 4. 连续特征离散化(二值化/分箱处理) 阅读全文
posted @ 2019-05-17 15:08 Afant1 阅读(189) 评论(0) 推荐(0) 编辑
摘要: SKlearn 调参 阅读全文
posted @ 2019-05-17 09:34 Afant1 阅读(153) 评论(0) 推荐(0) 编辑
摘要: 朴素贝叶斯 全概率公式: 例子参考这里:https://www.cnblogs.com/panlangen/p/7801054.html 优缺点 优点: (1) 算法逻辑简单,易于实现(算法思路很简单,只要使用贝叶斯公式转化即可!) (2)分类过程中时空开销小(假设特征相互独立,只会涉及到二维存储) 阅读全文
posted @ 2019-05-15 19:25 Afant1 阅读(881) 评论(0) 推荐(0) 编辑
摘要: KNN算法总结 KNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别。(监督) k近邻算法(knn)是一种基本的分类与回归的算法,k means是一种基本的聚类方法。 在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集 阅读全文
posted @ 2019-05-14 20:01 Afant1 阅读(701) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 12 下一页