随笔分类 - 机器学习
机器学习经验分享
摘要:本文主要讲解的聚类算法有:k均值算法、均值漂移算法、凝聚层次算法、DBSCAN密度聚类算法,还介绍了聚类算法性能指标——轮廓系数。 聚类(cluster)与分类(class)不同,分类是有监督学习模型,聚类属于无监督学习模型。聚类讲究使用一些算法把样本划分为n个群落。一般情况下,这种算法都需要计算欧
阅读全文
摘要:作者:凌逆战时间:2019年11月1日博客园地址:https://www.cnblogs.com/LXP-Never/p/11415137.html OpenCV基础 OpenCV是一个开源的计算机视觉库。提供了很多图像处理常用的工具 批注:本文所有图片数据都在我的GitHub仓库 读取图片并显示
阅读全文
摘要:自然语言处理,通常简称为NLP,是人工智能的一个分支,处理使用自然语言的计算机与人之间的交互。NLP的最终目标是以有价值的方式阅读,解读,理解和理解人类语言。大多数NLP技术都依靠机器学习来从人类语言中获取含义。 Siri的工作流程: 听 懂 思考 组织语言 回答 其中分别涉及的技术: 语音识别 自
阅读全文
摘要:机器学习的很多领域中存在很多稀疏矩阵,比如用来表示分类数据的独热编码、用于表示文档中词汇频率的计数编码、用于表示词汇中标准化的单词频率得分的TF-IDF编码。 稀疏矩阵 稀疏矩阵:在矩阵中,若数值中为0的元素数目远远多于非0元素的数目,并且非0元素分布没有规律。 稠密矩阵:在矩阵中,若数值中为0的元
阅读全文
摘要:支持向量机原理 支持向量机要解决的问题其实就是寻求最优分类边界。且最大化支持向量间距,用直线或者平面,分隔分隔超平面。 基于核函数的升维变换 通过名为核函数的特征变换,增加新的特征,使得低维度空间中的线性不可分问题变为高维度空间中的线性可分问题。 线性核函数:linear,不通过核函数进行维度提升,
阅读全文
摘要:人工分类 特征1>特征2 输出 0 特征1<特征2 输出 1 案例: 逻辑分类 通过输入的样本数据,基于多元线型回归模型求出线性预测方程。 $$y=w_0+w_1x_1+w_2x_2$$ 但通过线型回归方程返回的是连续值,不可以直接用于分类业务模型,所以急需一种方式使得把连续的预测值->离散的预测值
阅读全文
摘要:线性回归 输入x:0.5 0.6 0.8 1.1 1.4 输出y:5.0 5.5 6.0 6.8 7.0 $w_0$和$w_1$是模型参数预测函数:$y=w_0+w_1 x$ 所谓模型训练,就是根据已知的x和y,找到最佳的模型参数$w_0$和$w_1$,尽可能精确地描述出输入和输出的关系。 5.0
阅读全文
摘要:算法原理 用一句话总结决策树的核心思想:相似的输入必会产生相似的输出。 例如预测某人薪资: 年龄:1-青年,2-中年,3-老年 学历:1-本科,2-硕士,3-博士 经历:1-出道,2-一般,3-老手,4-骨灰 性别:1-男性,2-女性 为了提高搜索效率,使用树形数据结构处理样本数据: $$年龄=1\
阅读全文
摘要:数据预处理 数据预处理的过程: 输入数据 -> 模型 -> 输出数据 如下图所示为数据样本矩阵,则一行一样本,一列一特征。机器学习中有一个数据预处理的库,是一个解决机器学习问题的科学计算工具包 sklearn.preprocessing。 年龄学历经验性别月薪 25 硕士 2 女 10000 20
阅读全文
摘要:插值interpolate模块 计算插值有两个基本方法: 1、对一个完整的数据集去拟合一个函数(一条线穿过所有数据集的点) 2、对数据集的不同部分拟合出不同的函数,而函数之间的曲线平滑对接 一维插值 interp1d(x, y, kind='linear', ...) x和y参数是一系列已知的数据点
阅读全文
摘要:lstrip()方法 lstrip() 方法用于截掉字符串左边的空格或指定字符 str.lstrip([chars]) 截掉指定的字符char 返回截掉指定字符的字符串 str = " this is string example....wow!!! "; print( str.lstrip() )
阅读全文
摘要:决策树是根据树结构来进行决策的,决策树的最终结果对应了我们所希望的判定结果。一般的一棵树包含一个根节点、若干个内部节点和若干个叶节点;叶结点对应了决策树的结果,其他每个节点对应于一个属性测试;每个结点根据属性测试的结果别划分到子结点中;根结点包含样本的全集。 决策树的生成是一个递归过程,有三种情况会
阅读全文
摘要:机器学习的一些基本概念,模型、目标函数、优化算法等等,这些概念对于机器学习算法来说都是通用的套路。 基本形式 有一个实例x有d个属性\(x=(x_{1};x_{2};...x_{d})\),线性模型要通过属性的线性组合来预测函数,即\[y(x)=w_{1}x_{1}+w_{2}x_{2}+...w_
阅读全文
浙公网安备 33010602011771号