摘要:
原文地址:https://www.jianshu.com/p/7a049ae73f56 梯度下降优化基本公式:${\theta\leftarrow\theta \eta\cdot\nabla_\theta{J(\theta)}}$ 一、三种梯度下降优化框架 这三种梯度下降优化框架的区别在于每次更新模 阅读全文
posted @ 2019-05-03 15:38
cherrychenlee
阅读(467)
评论(0)
推荐(0)
摘要:
原文地址:https://www.jianshu.com/p/9dacdc88d3ec + Bagging 用于减小方差。 使用训练数据的不同随机子集(大小常等于训练数据,采用不放回的方式进行抽取)来训练每个base model,最后对每个base model进行权重相同的vote。分类问题取众数, 阅读全文
posted @ 2019-05-03 13:39
cherrychenlee
阅读(237)
评论(0)
推荐(0)
摘要:
原文地址:https://www.jianshu.com/p/b8653f8b5b2b 一、Recurrent Neural Network 二、Naive RNN Naive RNN更新参数时易出现梯度消失/爆炸的问题。 三、LSTM + peephole + Naive RNN vs LSTM 阅读全文
posted @ 2019-05-03 11:55
cherrychenlee
阅读(1490)
评论(0)
推荐(0)
摘要:
原文地址:https://www.jianshu.com/p/930813af53c7 相同 逻辑回归和朴素贝叶斯都是对条件概率$P(y|X)$进行建模,使得最终的分类结果有很好的解释性。 不同 具体流程 + 逻辑回归: 假设$P(y=1|X)$满足逻辑函数 $$\delta(z)=\frac{1} 阅读全文
posted @ 2019-05-03 11:17
cherrychenlee
阅读(263)
评论(0)
推荐(0)