随笔分类 -  机器学习

摘要:梯度下降 Gradient Descent 梯度下降是一种迭代法(与最小二乘法不同),目标是解决最优化问题:${\theta}^ = arg min_{\theta} L({\theta})$,其中${\theta}$是一个向量,梯度是偏微分。 为了让梯度下降达到更好的效果,有以下这些Tips: 1 阅读全文
posted @ 2019-08-09 10:50 Yanqiang 阅读(327) 评论(0) 推荐(0)
摘要:这篇论文最早是一篇2016年1月16日发表在Sebastian Ruder的 "博客" 。本文主要工作是对这篇论文与李宏毅课程相关的核心部分进行翻译。 论文全文翻译: An overview of gradient descent optimization algorithms 梯度下降优化算法概述 阅读全文
posted @ 2019-08-05 09:17 Yanqiang 阅读(893) 评论(0) 推荐(0)
摘要:李宏毅课程学习笔记总结,以及作业,参考论文总结。 阅读全文
posted @ 2019-07-31 09:06 Yanqiang 阅读(2275) 评论(0) 推荐(0)
摘要:A more complex model does not always lead to better performance on testing data. Because error due to both of 'bias' and 'variance'. From training dat 阅读全文
posted @ 2019-07-30 16:24 Yanqiang 阅读(503) 评论(0) 推荐(0)
摘要:Regression 回归 应用领域包括:Stock Market Forecast, Self driving car, Recommondation,... Step 1: Model 对于宝可梦的CP值预测问题,假设为一个最简单的线性模型 y = b + $\sum w_i x_i$ $x_i 阅读全文
posted @ 2019-07-30 11:42 Yanqiang 阅读(818) 评论(0) 推荐(0)
摘要:Machine Learning == Looking for a Function AI过程的解释:用户输入信息,计算机经过处理,输出反馈信息(输入输出信息的形式可以是文字、语音、图像等)。 因为从输入到输出的处理不是简单的数学运算,甚至很多时候科学家并不知道如何来实现这个过程。 所以最初的时候科 阅读全文
posted @ 2019-07-18 12:50 Yanqiang 阅读(724) 评论(0) 推荐(0)