Fork me on GitHub
摘要: a.每个数据点,计算它与其他点的距离 b.找到它的K近邻,计算LOF得分 参数含义 ●n_neighbors=20:即LOF算法中的k的值,检测的邻域点个数超过样本数则使用所有的样本进行检测 ●algorithm = 'auto':使用的求解算法,使用默认值即可 ●contamination = 0阅读全文
posted @ 2019-06-12 15:03 afanti~ 阅读(5) 评论(0) 编辑
摘要: (Isolation Forest无监督)这个算法是随机森林的推广。 iTree树构造:随机选一个属性,再随机选该特征的一个值,对样本进行二叉划分,重复以上操作。 iTree构建好了后,就可以对数据进行预测啦,预测的过程就是把测试记录在iTree上走一下,看测试记录落在哪个叶子节点。iTree能有效阅读全文
posted @ 2019-06-04 17:08 afanti~ 阅读(17) 评论(0) 编辑
摘要: ![Alt text](https://img2018.cnblogs.com/blog/1298490/201905/1298490-20190524140336675-2050471244.jpg) ![Alt text](https://img2018.cnblogs.com/blog/1298490/201905/1298490-20190524140330691-1162061897.j...阅读全文
posted @ 2019-05-24 14:04 afanti~ 阅读(9) 评论(0) 编辑
摘要: 随机森林 这篇好好看看怎么调参的 我调的最佳参数如下,准确率为0.8428671546929973,细节看上篇文章:阅读全文
posted @ 2019-05-23 16:58 afanti~ 阅读(13) 评论(0) 编辑
摘要: 在 "这里" 下载数据集 导入模块 数据预处理 通过图表显示数据 随机森林预测 0.8316311996368176 进行调参,先调n_estimators 进行细化,得到当n_estimators为145时,准确率最高 确定n_estimators,开始进一步调整max_depth 得到当深度为1阅读全文
posted @ 2019-05-23 16:42 afanti~ 阅读(19) 评论(0) 编辑
摘要: SKlearn中的线性回归阅读全文
posted @ 2019-05-21 15:57 afanti~ 阅读(11) 评论(0) 编辑
摘要: SKlearn中的Adaboost使用 主要调的参数:第一部分是对我们的Adaboost的框架进行调参, 第二部分是对我们选择的弱分类器进行调参。 使用 Adaboost 进行手写数字识别 导入库,载入数据 看下图像: 使用深度为 1 的决策树分类器,准确率是0.2641850696745583 通阅读全文
posted @ 2019-05-20 17:28 afanti~ 阅读(15) 评论(0) 编辑
摘要: ![Alt text](https://img2018.cnblogs.com/blog/1298490/201905/1298490-20190520093811079-291730821.jpg) ![Alt text](https://img2018.cnblogs.com/blog/1298490/201905/1298490-20190520093808937-398365394.jpg...阅读全文
posted @ 2019-05-20 09:39 afanti~ 阅读(9) 评论(0) 编辑
摘要: 之前写过反序列化报错回显。 1、远程server放恶意jar包,服务器去远程server来请求恶意jar包 2、利用defineClass加载byte[]返回Class对象 从 "这里" 找到回显的poc,这个poc用的就是方法2. 详细POC如下: defineClass去加载com.supere阅读全文
posted @ 2019-05-18 22:16 afanti~ 阅读(129) 评论(0) 编辑
摘要: 总结: 1. 量纲化(归一化,标准化) 2. 缺失值处理(补0、均值、中值、众数、自定义) 3. 编码/哑变量:忽略数字中自带数学性质(文字 数值类型) 4. 连续特征离散化(二值化/分箱处理)阅读全文
posted @ 2019-05-17 15:08 afanti~ 阅读(12) 评论(0) 编辑