随笔分类 -  面试

整理面试的资料
深度学习——GAN
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 思想 表达式 实际计算方法 改进 WGAN 1.思想 GAN结合了生成模型和判别模型,相当于矛与盾的撞击。生成模型负责生成最好的数 阅读全文
posted @ 2018-05-10 13:18 笨拙的忍者 阅读(332) 评论(0) 推荐(0)
深度学习——RNN
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 原理 RNN、LSTM、GRU区别 LSTM防止梯度弥散和爆炸 引出word2vec 1.原理 在普通的全连接网络或CNN中,每层 阅读全文
posted @ 2018-05-10 11:07 笨拙的忍者 阅读(431) 评论(0) 推荐(0)
深度学习——CNN
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 思想 filter尺寸的选择 输出尺寸计算公式 pooling池化的作用 常用的几个模型,这个最好能记住模型大致的尺寸参数 1.思 阅读全文
posted @ 2018-05-10 10:56 笨拙的忍者 阅读(233) 评论(0) 推荐(0)
深度学习——神经网络基础
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 Backpropagation 梯度消失、梯度爆炸 常用的激活函数 参数更新方法 解决overfitting的方法 1.Backp 阅读全文
posted @ 2018-05-09 23:04 笨拙的忍者 阅读(510) 评论(0) 推荐(0)
机器学习——基础
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 数据归一化(或者标准化,注意归一化和标准化不同)的原因 SVD和PCA 防止过拟合的方法 数据不平衡问题 1.数据归一化(或者标准 阅读全文
posted @ 2018-05-09 21:59 笨拙的忍者 阅读(157) 评论(0) 推荐(0)
机器学习——评价指标
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 分类器的好坏 1.分类器的好坏 这里首先要知道TP、FN(真的判成假的)、FP(假的判成真)、TN四种(可以画一个表格)。 几种常 阅读全文
posted @ 2018-05-09 21:38 笨拙的忍者 阅读(126) 评论(0) 推荐(0)
机器学习——HMM & CRF
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 HMM CRF HMM和CRF对比 1.HMM算法 隐马尔可夫模型是用于标注问题的生成模型。有几个参数(ππ,A,B):初始状态概 阅读全文
posted @ 2018-05-09 21:35 笨拙的忍者 阅读(393) 评论(0) 推荐(0)
机器学习——EM
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 EM算法是用于含有隐变量模型的极大似然估计或者极大后验估计,有两步组成:E步,求期望(expectation);M步,求极大(ma 阅读全文
posted @ 2018-05-09 21:32 笨拙的忍者 阅读(141) 评论(0) 推荐(0)
机器学习——集成学习之Stacking
摘要:摘自: https://zhuanlan.zhihu.com/p/27689464 Stacking方法是指训练一个模型用于组合其他各个模型。首先我们先训练多个不同的模型,然后把之前训练的各个模型的输出为输入来训练一个模型,以得到一个最终的输出。理论上,Stacking可以表示上面提到的两种Ense 阅读全文
posted @ 2018-05-09 21:25 笨拙的忍者 阅读(1002) 评论(0) 推荐(0)
机器学习——集成学习之Boosting
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 AdaBoost GBDT Xgboost 1.AdaBoost Boosting的本质实际上是一个加法模型,通过改变训练样本权重 阅读全文
posted @ 2018-05-09 21:23 笨拙的忍者 阅读(216) 评论(0) 推荐(0)
机器学习——集成学习之Bagging
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 随机森林 1.随机森林 随机森林改变了决策树容易过拟合的问题,这主要是由两个操作所优化的:1、Boostrap从袋内有放回的抽取样 阅读全文
posted @ 2018-05-09 21:10 笨拙的忍者 阅读(215) 评论(0) 推荐(0)
机器学习——SVM
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 带核的SVM为什么能分类非线性问题? RBF核一定是线性可分的吗? 常用核函数及核函数的条件 SVM的基本思想 是否所有的优化问题 阅读全文
posted @ 2018-05-09 20:52 笨拙的忍者 阅读(206) 评论(0) 推荐(0)
机器学习——逻辑回归
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 公式推导 逻辑回归的基本概念 L1-norm和L2-norm LR和SVM对比 LR和随机森林区别 常用的优化算法 1.公式推导( 阅读全文
posted @ 2018-05-09 20:43 笨拙的忍者 阅读(212) 评论(0) 推荐(0)
机器学习——决策树
摘要:整理自: https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1 各种熵的计算 常用的树搭建方法 防止过拟合—剪枝 前剪枝的几种停止条件 1.各种熵的计算 熵、联合熵、条件熵、交叉熵、KL散度(相 阅读全文
posted @ 2018-05-09 17:44 笨拙的忍者 阅读(137) 评论(0) 推荐(0)