随笔分类 -  机器学习

摘要:一、使用循环: 1.1原始版逻辑回归: 1.2正则化版逻辑回归: 二、矩阵向量方式整体运算: 2.1原始版逻辑回归: 2.2正则化版逻辑回归: 阅读全文
posted @ 2018-11-09 10:45 Loser_King 阅读(314) 评论(0) 推荐(0)
摘要:五、编程作业: 见:https://www.cnblogs.com/tommyngx/p/9933803.html 阅读全文
posted @ 2018-11-05 17:41 Loser_King 阅读(407) 评论(0) 推荐(0)
摘要:1.不同的起始点,可能导致最后得到的局部最小值点不同。 2.同时更新: 以代价函数J(θ0,θ1)为例: 我们的目的就是要同时迭代更新θ0和θ1,直到下面这个式子收敛,这也是梯度下降法的核心 其中,j取值为0和1。 每次迭代的时候,我们需要同时更新θ1​,θ2​,...,θn,我个人的理解就是,先都 阅读全文
posted @ 2018-08-29 16:21 Loser_King 阅读(277) 评论(0) 推荐(0)