摘要: 笔记笔记笔记-待更新 二维数组中查找 题目 在一个二维数组中(每个一维数组的长度相同),每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序。请完成一个函数,输入这样的一个二维数组和一个整数,判断数组中是否含有该整数 思路 从最右一列往下查找,效率比直接遍历高 代码 # -*- c 阅读全文
posted @ 2019-11-20 15:05 forthlss 阅读(194) 评论(0) 推荐(0) 编辑
摘要: 转自https://blog.csdn.net/T1243_3/article/details/80170006 阅读全文
posted @ 2019-05-14 11:53 forthlss 阅读(272) 评论(0) 推荐(0) 编辑
摘要: 年前做的,也是学习别人的作品作为记录 一、赛题 表1:sku基本信息表(jdata_sku_basic_info) 表2:用户基本信息表(jdata_user_basic_info) 表3:用户行为表(jdata_user_action) 表4:用户订单表(jdata_user_order) 表5: 阅读全文
posted @ 2019-02-15 21:04 forthlss 阅读(1416) 评论(0) 推荐(0) 编辑
摘要: 之前简单总结的,后面的内容基本是目录,详细内容后面再添加 1.决策树的定义 简单的来说决策树就是将数据集根据一定规则分裂,建立成树结构,用来进行决策,每一个非叶子节点是一个判断条件,每一个叶子节点是结论。从根节点开始,经过多次判断得出结论。 举例: 省略数据集,给出得到的树如下,用来银行根据一个认得 阅读全文
posted @ 2019-02-13 09:30 forthlss 阅读(662) 评论(0) 推荐(0) 编辑
摘要: 机器学习一百天-day7/11-KNN近邻法 在协同过滤里应用的就是近邻法 一,数据预处理 读取数据,划分数据集,特征归一化 二,将KNN应用于训练集 使用KNeighborsClassifier, 具体介绍见https://scikit-learn.org/stable/modules/gener 阅读全文
posted @ 2019-01-16 12:17 forthlss 阅读(234) 评论(1) 推荐(0) 编辑
摘要: 机器学习100天-day4,5,6,8逻辑回归 一,数据导入 将类别变量转为哑变量 检测是否有nan值 划分数据集 将X的数据进行归一化处理 二,逻辑回归模型 三,评估预测 生成混淆矩阵 混淆矩阵(confusion matrix)是机器学习尤其是统计分类中常用的用以判断分类好坏的方法,如下: TP 阅读全文
posted @ 2019-01-16 11:30 forthlss 阅读(316) 评论(1) 推荐(0) 编辑
摘要: 机器学习一百天-day3多元线性回归及虚拟变量陷阱分析 一,数据预处理 导入数据集 数据集(head(5)): 将类别数据数字化 先用labelencoder将字符串编码为0,1,2,再用onrhotencoder编码 此时的X : [[0.0000000e+00 0.0000000e+00 1.0 阅读全文
posted @ 2019-01-16 11:28 forthlss 阅读(1148) 评论(1) 推荐(0) 编辑
摘要: 机器学习100天-day2简单线性回归 一,数据预处理 数据集 二,训练集使用简单线性回归模型训练 三,预测结果 四,可视化 训练集: 测试集: 阅读全文
posted @ 2019-01-15 19:24 forthlss 阅读(228) 评论(0) 推荐(0) 编辑
摘要: 机器学习一百天学习笔记(只作为学习笔记,具体推荐学习如下链接) 原github:https://github.com/Avik-Jain/100-Days-Of-ML-Code 中文版地址: https://github.com/MLEveryday/100-Days-Of-ML-Code 参考:作 阅读全文
posted @ 2019-01-15 13:25 forthlss 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 主要参数说明: missing_values:缺失值,可以为整数或NaN(缺失值numpy.nan用字符串‘NaN’表示),默认为NaN strategy:替换策略,字符串,默认用均值‘mean’替换 ①若为mean时,用特征列的均值替换 ②若为median时,用特征列的中位数替换 ③若为most_ 阅读全文
posted @ 2019-01-10 16:58 forthlss 阅读(732) 评论(0) 推荐(0) 编辑