直线回归的概念

直线回归的概念

直线回归(linear regreSSion)是用直线回归方程表示两个数量变量间依存关系的统计分析方法,属双变量分析的范畴。如果某一个变量随着另一个变量的变化而变化,并且它们的变化在直角坐标系中呈直线趋势,就可以用一个直线方程来定量地描述它们之间的数量依存关系,这就是直线回归分析。

直线回归分析中两个变量的地位不同,其中一个变量是依赖另一个变量而变化的,因此分别称为因变量(dependent variable)和自变量(independent variable),习惯上分别用y和x来表示。其中x可以是规律变化的或人为选定的一些数值(非随机变量),也可以是随机变量,前者称为I型回归,后者称为II型回归。

直线回归分析的应用条件

1.两变量的变化趋势呈直线趋势(linear);

2.因变量y属于正态随机变量(normal distribution);

3.对于I型要求对于每个选定的Xy都有一个正态分布的总体,并且这些总体的方差都相等(equal variance);对于II型回归,要求xy服从双变量正态分布。

直线回归和直线相关的区别与联系:

区别:

(1)资料要求不同。回归要求依变量y服从正态分布,而x是可以精确测量和严格控制的量,一般称为I型回归;相关要求两个变量x、y服从双变量正态分布资料,若进行回归则称为II型回归,分别计算出两个回归方程。

(2)应用情况不同。描述两变量间依存变化的数量关系用回归分析,描述两变量间相关关系用相关分析。回归反映两个变量之间的单向关系,而相关则表示两个变量之间的相互关系是双向的。

联系:

(1)方向一致。如果对同一资料进行回归与相关分析,得到的回归方程中的b与相关系数r的正负号是相同的。

(2)假设检验等价。

(3)相关回归可以互相解释。

 

http://blog.sciencenet.cn/home.php?mod=space&uid=116082&do=blog&id=219436

posted @ 2011-07-24 19:50  emanlee  阅读(2038)  评论(0编辑  收藏  举报