随笔分类 - 【模式识别与机器学习】
摘要:原文地址:http://www.dengfanxin.cn/?p=334 1. 神秘变量与数据集 现在有一个数据集DX(dataset, 也可以叫datapoints),每个数据也称为数据点。我们假定这个样本受某种神秘力量操控,但是我们也无从知道这些神秘力量是什么?那么我们假定这股神秘力量有n个,起
阅读全文
摘要:原文地址:https://www.zhihu.com/question/32275069/answer/80188672 题主问的是embedding的含义,楼上几位的回答都是拿word embedding说了一通,也没解释出embedding的含义。我来说一下。Embedding在数学上表示一个m
阅读全文
摘要:原文地址:https://blog.csdn.net/marsjhao/article/details/73480859 一、什么是自编码器(Autoencoder) 自动编码器是一种数据的压缩算法,其中数据的压缩和解压缩函数是数据相关的、有损的、从样本中自动学习的。在大部分提到自动编码器的场合,压
阅读全文
摘要:记录一些网友写的博客或者帖子,供学习用,感谢! 用文氏图来理解卷积神经网络如何决定提取哪些特征:https://blog.csdn.net/kane7csdn/article/details/84890592 为什么卷积能够提取图像的特征?看完此文应该能够给你一个答案:https://blog.cs
阅读全文
摘要:原文地址:https://blog.csdn.net/chognzhihong_seu/article/details/70941000 GAN — Generative Adversarial Networks 3D-GAN — Learning a Probabilistic Latent Sp
阅读全文
摘要:原文地址:https://zhuanlan.zhihu.com/p/27216346 本文要介绍的这一篇paper是ICML2016上一篇关于 CNN 在图(graph)上的应用。ICML 是机器学习方面的顶级会议,这篇文章--<< Learning CNNs for Graphs>>--所研究的内
阅读全文
摘要:原文地址:https://www.cnblogs.com/nxf-rabbit75/p/9276412.html 激活函数: 就是在神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。 常见的激活函数包括Sigmoid、TanHyperbolic(tanh)、ReLu、 softplus以
阅读全文
摘要:原文地址:https://blog.csdn.net/Uwr44UOuQcNsUQb60zk2/article/details/81074408 前言 很多人不明白为什么要在神经网络、逻辑回归中要在样本X的最前面加一个1,使得 X=[x1,x2,…,xn] 变成 X=[1,x1,x2,…,xn] 。
阅读全文
摘要:原文地址:https://blog.csdn.net/libing_zeng/article/details/81568954
阅读全文
摘要:原文地址:http://www.360doc.com/content/16/0601/05/33848074_564071015.shtml (360图书馆你不是不让复制么,劳资就是复制下来了!你个恶心家伙!) 机器学习,具体以RBF网络里面的核函数为例,有童鞋说是通过径向基核函数可以把原始数据 投
阅读全文
摘要:原文地址:https://www.cnblogs.com/huangyc/p/9686107.html 0. 目录 1. 基本概念 2. 欠拟合和过拟合 2.1 学习曲线 2.2 复杂程曲线 3. 如何解决欠拟合和过拟合 3.1 解决欠拟合 3.2 解决过拟合 0. 目录 1. 基本概念 2. 欠拟
阅读全文
摘要:原文地址:https://blog.csdn.net/bitcarmanlee/article/details/82320853 1.softmax初探 在机器学习尤其是深度学习中,softmax是个非常常用而且比较重要的函数,尤其在多分类的场景中使用广泛。他把一些输入映射为0-1之间的实数,并且归
阅读全文
摘要:原文地址:https://www.lookfor404.com/从梯度下降到反向传播附计算例子/#comment-652 从梯度下降到反向传播(附计算例子) 梯度下降法(Gradient Descent)是神经网络的核心方法,用于更新神经元之间的权重,以及每一层的偏置;反向传播算法(Back-Pro
阅读全文
摘要:原文地址:https://www.zhihu.com/question/59800121/answer/184888043 神经元 在深度学习领域,神经元是最底层的单元,如果用感知机的模型, wx + b, 加上一个激活函数构成了全部,输入和输出都是数字,研究的比较清楚。别的不说,在参数已知的情况下
阅读全文
摘要:原文地址:https://blog.csdn.net/a493823882/article/details/80569888 我们知道距离的定义是一个宽泛的概念,只要满足非负、自反、三角不等式就可以称之为距离。范数是一种强化了的距离概念,它在定义上比距离多了一条数乘的运算法则。有时候为了便于理解,我
阅读全文
摘要:原文地址:https://www.matongxue.com/madocs/32.html 从数学上讲,卷积就是一种运算。 某种运算,能被定义出来,至少有以下特征: 首先是抽象的、符号化的 其次,在生活、科研中,有着广泛的作用 首先是抽象的、符号化的 其次,在生活、科研中,有着广泛的作用 比如加法:
阅读全文
摘要:原文地址:https://zhuanlan.zhihu.com/p/27216346 本文要介绍的这一篇paper是ICML2016上一篇关于 CNN 在图(graph)上的应用。ICML 是机器学习方面的顶级会议,这篇文章--<< Learning CNNs for Graphs>>--所研究的内
阅读全文
摘要:原文地址:https://www.cnblogs.com/charlotte77/p/5629865.html 最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公
阅读全文
摘要:原文地址:http://www.cnblogs.com/zjiaxing/p/5548265.html 在目前实际的视觉SLAM中,闭环检测多采用DBOW2模型https://github.com/dorian3d/DBoW2,而bag of words 又运用了数据挖掘的K-means聚类算法,笔
阅读全文
摘要:原文地址:https://www.jianshu.com/p/b2da4d94a122 一、概述 本文主要是从deep learning for nlp课程的讲义中学习、总结google word2vector的原理和词向量的训练方法。文中提到的模型结构和word2vector的代码实现并不一致,但
阅读全文

浙公网安备 33010602011771号