线性回归与逻辑回归

关于线性回归,推荐几篇博文,讲得很好:

JerryLead对线性回归,logistic回归和一般回归的认识

leftnoteasy机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)

苏冉旭的博客Logistic regression (逻辑回归) 概述

 

本文主要是我对线性回归的一些理解。

 

一.线性回归

      线性回归假设特征x和结果y满足线性关系。线性回归的目标函数为:

      线性回归的损失函数为:

      可以用梯度下降法或者最小二乘法调整θ来最小化这个J(θ)。

      梯度下降法:J(θ)对θ求导得到:

 

      那么θ的更新可以表示为:

      最小二乘法:用normal equation直接求得参数的解,结果为:

      不过此方法要求X是满秩的,因为要求X-1

 

二.逻辑回归

      逻辑回归时一个线性分类器,逻辑函数表达式为:

      g(z)的求导为

 

      逻辑回归方法主要是用最大似然估计来学习的,所以单个样本的后验概率为:

 

      那么整个样本的后验概率为:

      两边求对数得到:

      上式即为损失函数,可用梯度下降法求解:

      那么θ的更新可以表示为:

 

 

转载请注明出处:http://www.cnblogs.com/Rosanna/p/3623276.html

posted @ 2014-03-25 16:29  七年之后  阅读(826)  评论(0编辑  收藏  举报