深度学习——GAN
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 思想 表达式 实际计算方法 改进 WGAN 1.思想 GAN结合了生成模型和判别模型,相当于矛与盾的撞击。生成模型负责生成最好的数
阅读全文
posted @
2018-05-10 13:18
笨拙的忍者
阅读(332)
推荐(0)
深度学习——RNN
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 原理 RNN、LSTM、GRU区别 LSTM防止梯度弥散和爆炸 引出word2vec 1.原理 在普通的全连接网络或CNN中,每层
阅读全文
posted @
2018-05-10 11:07
笨拙的忍者
阅读(431)
推荐(0)
深度学习——CNN
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 思想 filter尺寸的选择 输出尺寸计算公式 pooling池化的作用 常用的几个模型,这个最好能记住模型大致的尺寸参数 1.思
阅读全文
posted @
2018-05-10 10:56
笨拙的忍者
阅读(233)
推荐(0)
深度学习——神经网络基础
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 Backpropagation 梯度消失、梯度爆炸 常用的激活函数 参数更新方法 解决overfitting的方法 1.Backp
阅读全文
posted @
2018-05-09 23:04
笨拙的忍者
阅读(510)
推荐(0)
机器学习——基础
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 数据归一化(或者标准化,注意归一化和标准化不同)的原因 SVD和PCA 防止过拟合的方法 数据不平衡问题 1.数据归一化(或者标准
阅读全文
posted @
2018-05-09 21:59
笨拙的忍者
阅读(157)
推荐(0)
机器学习——评价指标
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 分类器的好坏 1.分类器的好坏 这里首先要知道TP、FN(真的判成假的)、FP(假的判成真)、TN四种(可以画一个表格)。 几种常
阅读全文
posted @
2018-05-09 21:38
笨拙的忍者
阅读(126)
推荐(0)
机器学习——HMM & CRF
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 HMM CRF HMM和CRF对比 1.HMM算法 隐马尔可夫模型是用于标注问题的生成模型。有几个参数(ππ,A,B):初始状态概
阅读全文
posted @
2018-05-09 21:35
笨拙的忍者
阅读(393)
推荐(0)
机器学习——EM
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 EM算法是用于含有隐变量模型的极大似然估计或者极大后验估计,有两步组成:E步,求期望(expectation);M步,求极大(ma
阅读全文
posted @
2018-05-09 21:32
笨拙的忍者
阅读(141)
推荐(0)
机器学习——集成学习之Stacking
摘要:摘自: https://zhuanlan.zhihu.com/p/27689464 Stacking方法是指训练一个模型用于组合其他各个模型。首先我们先训练多个不同的模型,然后把之前训练的各个模型的输出为输入来训练一个模型,以得到一个最终的输出。理论上,Stacking可以表示上面提到的两种Ense
阅读全文
posted @
2018-05-09 21:25
笨拙的忍者
阅读(1002)
推荐(0)
机器学习——集成学习之Boosting
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 AdaBoost GBDT Xgboost 1.AdaBoost Boosting的本质实际上是一个加法模型,通过改变训练样本权重
阅读全文
posted @
2018-05-09 21:23
笨拙的忍者
阅读(216)
推荐(0)
机器学习——集成学习之Bagging
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 随机森林 1.随机森林 随机森林改变了决策树容易过拟合的问题,这主要是由两个操作所优化的:1、Boostrap从袋内有放回的抽取样
阅读全文
posted @
2018-05-09 21:10
笨拙的忍者
阅读(215)
推荐(0)
机器学习——SVM
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 带核的SVM为什么能分类非线性问题? RBF核一定是线性可分的吗? 常用核函数及核函数的条件 SVM的基本思想 是否所有的优化问题
阅读全文
posted @
2018-05-09 20:52
笨拙的忍者
阅读(206)
推荐(0)
机器学习——逻辑回归
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 公式推导 逻辑回归的基本概念 L1-norm和L2-norm LR和SVM对比 LR和随机森林区别 常用的优化算法 1.公式推导(
阅读全文
posted @
2018-05-09 20:43
笨拙的忍者
阅读(212)
推荐(0)
机器学习——决策树
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 各种熵的计算 常用的树搭建方法 防止过拟合—剪枝 前剪枝的几种停止条件 1.各种熵的计算 熵、联合熵、条件熵、交叉熵、KL散度(相
阅读全文
posted @
2018-05-09 17:44
笨拙的忍者
阅读(137)
推荐(0)