文章分类 -  机器学习

摘要:MiniBatchKMeans 算法 MiniBatchKMeans 类主要参数 MiniBatchKMeans 类的主要参数比 KMeans 类稍多,主要有: 1) n_clusters: 即我们的 k 值,和 KMeans 类的 n_clusters 意义一样。 2)**max_iter:**最 阅读全文
posted @ 2020-06-23 17:59 别再闹了 阅读(2567) 评论(0) 推荐(0)
摘要:计算机视觉四大基本任务 (分类、定位、检测、分割) 引言 深度学习目前已成为发展最快、最令人兴奋的机器学习领域之一,许多卓有建树的论文已经发表,而且已有很多高质量的开源深度学习框架可供使用。然而,论文通常非常简明扼要并假设读者已对深度学习有相当的理解,这使得初学者经常卡在一些概念的理解上,读论文似懂 阅读全文
posted @ 2020-06-22 20:04 别再闹了 阅读(1674) 评论(0) 推荐(0)
摘要:深度学习基础 (基本概念、优化算法、初始化、正则化等) 引言 深度学习目前已成为发展最快、最令人兴奋的机器学习领域之一,许多卓有建树的论文已经发表,而且已有很多高质量的开源深度学习框架可供使用。然而,论文通常非常简明扼要并假设读者已对深度学习有相当的理解,这使得初学者经常卡在一些概念的理解上,读论文 阅读全文
posted @ 2020-06-22 19:56 别再闹了 阅读(896) 评论(0) 推荐(0)
摘要:当你在应用机器学习时你应该想什么 如今, 机器学习变得十分诱人, 它已在网页搜索, 商品推荐, 垃圾邮件检测, 语音识别, 图像识别, 自然语言处理等诸多领域发挥重要作用. 和以往我们显式地通过编程告诉计算机如何进行计算不同, 机器学习是一种数据驱动方法 (data-driven approach) 阅读全文
posted @ 2020-06-22 19:52 别再闹了 阅读(117) 评论(0) 推荐(0)
摘要:变分自编码器介绍、推导及实现 0. 预备知识 0.1 信息量 在信息理论中,我们用以下式子来量化一个事件 的信息量 : 当 底数为 e 时,信息量的单位为 nat(奈特),当 底数为 2 时,信息量的单位为 bit(比特)。 0.2 信息熵(Entropy) 此外,如果用以下两个式子分别来表示随机变 阅读全文
posted @ 2020-06-22 12:08 别再闹了 阅读(1996) 评论(0) 推荐(1)
摘要:Batch Normalization 学习笔记 一、背景意义 本篇博文主要讲解 2015 年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covari 阅读全文
posted @ 2020-06-21 22:11 别再闹了 阅读(83) 评论(0) 推荐(0)
摘要:GAN 学习指南:从原理入门到制作生成 Demo 生成式对抗网络(GAN)是近年来大热的深度学习模型。最近正好有空看了这方面的一些论文,跑了一个 GAN 的代码,于是写了这篇文章来介绍一下 GAN。 本文主要分为三个部分: 介绍原始的 GAN 的原理 同样非常重要的 DCGAN 的原理 如何在 Te 阅读全文
posted @ 2020-06-21 18:44 别再闹了 阅读(412) 评论(0) 推荐(0)
摘要:SVM 高频面试题 在数据挖掘或者机器学习算法工程师面试中,SVM 是经常被问到的一个算法,本文总结了面试中 SVM 相关的常考问题。 1. SVM 原理 SVM 是一种二类分类模型。它的基本模型是在特征空间中寻找间隔最大化的分离超平面的线性分类器。 当训练样本线性可分时,通过硬间隔最大化,学习一个 阅读全文
posted @ 2020-06-17 09:49 别再闹了 阅读(761) 评论(0) 推荐(0)
摘要:支持向量机(SVM)——原理篇 目录 SVM 简介 线性 SVM 算法原理 非线性 SVM 算法原理 SVM 简介 支持向量机(support vector machines, SVM)是一种二分类模型,它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;SVM 还包括核 阅读全文
posted @ 2020-06-17 09:29 别再闹了 阅读(440) 评论(0) 推荐(0)
摘要:深入理解 K-Means 聚类算法 概述 什么是聚类分析 聚类分析是在数据中发现数据对象之间的关系,将数据进行分组,组内的相似性越大,组间的差别越大,则聚类效果越好。 不同的簇类型 聚类旨在发现有用的对象簇,在现实中我们用到很多的簇的类型,使用不同的簇类型划分数据的结果是不同的,如下的几种簇类型。 阅读全文
posted @ 2020-06-17 00:00 别再闹了 阅读(312) 评论(0) 推荐(0)
摘要:VAE(Variational Autoencoder) 的原理 我们可以对编码器添加约束,就是强迫它产生服从单位高斯分布的潜在变量。正式这种约束,把 VAE 和标准自编码器给区分开来了。 现在,产生新的图片也变得容易:我们只要从单位高斯分布中进行采样,然后把它传给解码器就可以了。 对于我们的损失函 阅读全文
posted @ 2020-06-16 22:04 别再闹了 阅读(814) 评论(0) 推荐(0)
摘要:深度学习中Dropout原理解析 目录: Dropout 简介 1.1 Dropout 出现的原因 1.2 什么是 Dropout \2. Dropout 工作流程及使用 2.1 Dropout 具体工作流程 2.2 Dropout 在神经网络中的使用 \3. 为什么说 Dropout 可以解决过拟 阅读全文
posted @ 2020-06-16 21:44 别再闹了 阅读(967) 评论(0) 推荐(0)
摘要:拉普拉斯特征映射(Laplacian Eigenmaps) 1、介绍 拉普拉斯特征映射(Laplacian Eigenmaps)是一种不太常见的降维算法,它看问题的角度和常见的降维算法不太相同,是从局部的角度去构建数据之间的关系。也许这样讲有些抽象,具体来讲,拉普拉斯特征映射是一种基于图的降维算法, 阅读全文
posted @ 2020-06-16 21:07 别再闹了 阅读(2343) 评论(0) 推荐(0)
摘要:快速傅里叶变换 快速傅里叶变换 (fast Fourier transform), 即利用计算机计算离散傅里叶变换(DFT)的高效、快速计算方法的统称,简称FFT。快速傅里叶变换是1965年由J.W.库利和T.W.图基提出的。采用这种算法能使计算机计算离散傅里叶变换所需要的乘法次数大为减少,特别是被 阅读全文
posted @ 2020-06-16 19:01 别再闹了 阅读(1102) 评论(0) 推荐(0)
摘要:[校招 - 基础算法]GBDT/XGBoost 常见问题 在非深度学习的机器学习模型中,基于 GBDT 算法的 XGBoost、lightgbm 等有着非常优秀的性能,校招算法岗面试中 “出镜率” 非常高。这方面的资料非常多,因此本文不是原创,参考了很多面经、解读文章等,对 GBDT 相关的问题做了 阅读全文
posted @ 2020-06-16 18:33 别再闹了 阅读(814) 评论(0) 推荐(0)
摘要:xgboost学习 https://www.bilibili.com/video/av95103384 构建多个学习器,然后通过一定策略结合把它们来完成学习任务的,常常可以获得比单一学习显著优越的学习器。 集成算法一般分为三类:Bagging,Boosting,Stacking(我们可以把它简单地看 阅读全文
posted @ 2020-06-16 18:18 别再闹了 阅读(79) 评论(0) 推荐(0)
摘要:模型对缺失值的处理 首先从两个角度解释你的困惑: 工具包自动处理数据缺失不代表具体的算法可以处理缺失项 对于有缺失的数据:以决策树为原型的模型优于依赖距离度量的模型 回答中也会介绍树模型,如随机森林 (Random Forest) 和 xgboost 如何处理缺失值。文章最后总结了在有缺失值时选择模 阅读全文
posted @ 2020-06-16 17:20 别再闹了 阅读(1084) 评论(0) 推荐(0)
摘要:【机器学习】贝叶斯整理 简述朴素贝叶斯算法原理和工作流程 事件 A 和 B 同时发生的概率为在 A 发生的情况下发生 B 或者在 B 发生的情况下发生 A。 所以有: 对于给出的待分类项,求解在此项出现的条件下各个目标类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。 工作原理: 假设现在有样 阅读全文
posted @ 2020-06-16 17:11 别再闹了 阅读(900) 评论(0) 推荐(1)
摘要:PyTorch中在反向传播前为什么要手动将梯度清零? 作者:Pascal 链接:https://www.zhihu.com/question/303070254/answer/573037166 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 这种模式可以让梯度玩出 阅读全文
posted @ 2020-06-16 01:44 别再闹了 阅读(632) 评论(0) 推荐(0)
摘要:为什么多层的卷积神经网络训练时不用深度学习方法训练,难道误差、梯度不会逐层扩散和消失? 多层的神经网络在解决复杂问题时,如果使用反向传播算法效果会很不理想,有专家说是因为梯度在逐层扩散和消失,那么,为什么多层的卷积神经网络不会出现这类问题,现在卷积神经网络的训练都是误差反向传播的,不影响?为什么? 阅读全文
posted @ 2020-06-16 01:38 别再闹了 阅读(152) 评论(0) 推荐(0)