吴恩达老师的神经网路和深度学习_05

       在吴恩达老师的神经网络和深度学习_04中介绍了逻辑回归函数如链接https://www.cnblogs.com/mengmengxia/p/10537579.html

  •  逻辑回归的代价函数(Logistic Regression Cost Function)

        逻辑回归的代价函数又称为成本函数。为了训练逻辑回归模型的参数 w 和参数 b。需要一个代价函数,通过训练代价函数来得到参数w和参数b。先看一下逻辑回归的输出函数:           

给予一个训练集有m个样本,可以通过训练集的学习得到参数w和参数b。对于训练集的预测值,我们希望它会接近于训练集中的y值。训练样本i所对应的预测值是 是用训练样本的 通过sigmoid函数得到的。

       损失函数又叫误差函数,用来衡量算法的运行情况。损失函数用来衡量预测输出值和实际值有多接近。那么在逻辑回归中用到的损失函数是:

                                                                                      

                                                             

       损失函数是在单个训练样本中定义的,它衡量的是算法在单个训练样本中表现如何,为了衡量算法在全部训练样本上的表现如何,我们需要定义一个算法的代价函数,算法的代价函数是对m个样本的损失函数求和然后除以m:

                                                                                                                                                                                                                                         

           用于像这样的单个训练样本,而代价函数是参数的总代价,所以在训练逻辑回归模型时候,我们需要找到合适的w和b,来让代价函数J  的总代价降到最低。 

            不知道是怎么搞的,博客园写数学公式显示不出来,只能这样弄了!希望见谅!共同进步!

posted @ 2019-03-30 14:45  爱学习的虾  阅读(174)  评论(0编辑  收藏  举报