摘要: 当我和室友一起端坐在电脑前,为bug头痛的时候,对拍方法往往会让问题好解决一点。 如果屏幕前的你也有这样的困扰: 测试数据过得了,但是保密数据总有几条WA了 小数据过得了,大数据过不了,但是自己造大数据很麻烦 有bug藏得很深,运行了很多次都没找到 那么,我建议你试一试对拍。 什么是对拍 借用网上博 阅读全文
posted @ 2020-09-18 09:23 Eliza_Herb 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 原网址:http://lexue.bit.edu.cn/mod/page/view.php?id=201912 提问的智慧 引言 在 黑客 的世界,你所提技术问题的回答很大程度上取决于你提问的方式与解决此问题的难度,本文将教你如何提问才更有可能得到满意的答复。 开源程序的使用已经很广,你通常可以从其 阅读全文
posted @ 2020-09-10 16:20 Eliza_Herb 阅读(171) 评论(0) 推荐(0) 编辑
摘要: 超参数 KNN:k,p(明科夫斯基距离超参数)--weights=("uniform"/"distance") 寻找方法:网格搜索 数据归一化 其它 阅读全文
posted @ 2020-02-20 23:49 Eliza_Herb 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-02-14 20:16 Eliza_Herb 阅读(231) 评论(0) 推荐(0) 编辑
摘要: K近邻分类器(KNN) KNN:通过计算待分类数据点,与已有数据集中的所有数据点的距离。取距离最小的前K个点,根据“少数服从多数“的原则,将这个数据点划分为出现次数最多的那个类别。 sklearn中的K近邻分类器 在sklearn库中,可以使用sklearn.neighbors.KNeighbors 阅读全文
posted @ 2020-02-12 18:20 Eliza_Herb 阅读(1071) 评论(0) 推荐(0) 编辑
摘要: 监督学习的目标 利用一组带有标签的数据,学习从输入到输出的映射,然后将这种映射关系应用到未知数据上,达到分类或回归的目的。 分类:当输出是离散的,学习任务为分类任务。 回归:当输出是连续的,学习任务为回归任务。 分类学习 输入:一组有标签的训练数据(也称观察和评估),标签表明了这些数据(观察)的所署 阅读全文
posted @ 2020-02-11 20:51 Eliza_Herb 阅读(139) 评论(0) 推荐(0) 编辑
摘要: numpy库和scipy库使用指南:https://docs.scipy.org/doc/ 阅读全文
posted @ 2020-02-08 12:09 Eliza_Herb 阅读(109) 评论(0) 推荐(0) 编辑
摘要: 把像素扔进K-Means函数里,然后给像素添加不同的灰度并输出。 图像分割常用方法: 1. 阈值分割:对图像灰度值进行度量,设置不同类别的阈值,达到分割的目的。 2. 边缘分割:对图像边缘进行检测,即检测图像中灰度值发生跳变的地方,则为一片 区域的边缘。 3. 直方图法:对图像的颜色建立直方图,而直 阅读全文
posted @ 2020-02-07 23:01 Eliza_Herb 阅读(484) 评论(0) 推荐(0) 编辑
摘要: PCA 主成分分析(Principal Component Analysis,PCA)是最常用的一种降维方法,通常用于高维数据集的探索与可视化,还可以用作数据压缩和预处理等。 目标 PCA可以把具有相关性的高维变量合成为线性无关的低维变量,称为主成分。主成分能够尽可能保留原始数据的信息。 相关术语 阅读全文
posted @ 2020-02-06 21:10 Eliza_Herb 阅读(304) 评论(0) 推荐(0) 编辑
摘要: K-means聚类 K-means的应用 数据介绍: 现有1999年全国31个省份城镇居民家庭平均每人全年消费性支出的八个主 要变量数据,这八个变量分别是:食品、衣着、家庭设备用品及服务、医疗 保健、交通和通讯、娱乐教育文化服务、居住以及杂项商品和服务。利用已 有数据,对31个省份进行聚类。 实验目 阅读全文
posted @ 2020-02-03 22:09 Eliza_Herb 阅读(341) 评论(0) 推荐(0) 编辑