机器学习---吴恩达---Week10(机器学习概述与单变量线性回归方程分析)

Large scale machine learning(大规模机器学习)

Learning with large datasets(大型数据集学习)

“It’s not who has the best algorithm that wins. It’s who has the most data.”(高方差情况下)

Stochastic gradient descent(随机梯度下降)

Mini-­‐batch gradient descent(小梯度离散下降)

Stochastic gradient descent convergence(随机梯度下降收敛)

Online learning(在线学习)

由在线新获得的数据更新参数,不需要人为收集大量训练数据集,实时性更强。

举例:

Map-­‐reduce and data parallelism(映射化简和数据并行性)

使用前提:Many learning algorithms can be expressed as computing sums of functions over the training set.(许多学习算法可以表示为训练集上的函数的计算总和。)

举例:

形式1:多台计算机通过网络结合

形式2:单台计算机的多个内核

 

posted @ 2019-04-13 19:31  凌·杰特  阅读(159)  评论(0编辑  收藏  举报