随笔分类 - 机器学习
摘要:一、使用循环: 1.1原始版逻辑回归: 1.2正则化版逻辑回归: 二、矩阵向量方式整体运算: 2.1原始版逻辑回归: 2.2正则化版逻辑回归:
阅读全文
摘要:五、编程作业: 见:https://www.cnblogs.com/tommyngx/p/9933803.html
阅读全文
摘要:1.不同的起始点,可能导致最后得到的局部最小值点不同。 2.同时更新: 以代价函数J(θ0,θ1)为例: 我们的目的就是要同时迭代更新θ0和θ1,直到下面这个式子收敛,这也是梯度下降法的核心 其中,j取值为0和1。 每次迭代的时候,我们需要同时更新θ1,θ2,...,θn,我个人的理解就是,先都
阅读全文

浙公网安备 33010602011771号