【回归】回归分析中的假定:什么假定?为什么要满足?(为什么会违背?)违背假定的后果?怎样检验?如何改进?(未完)

阅读: 评论:0

【回归】回归分析中的假定:什么假定?为什么要满足?(为什么会违背?)违背假定的后果?怎样检验?如何改进?(未完)

【回归】回归分析中的假定:什么假定?为什么要满足?(为什么会违背?)违背假定的后果?怎样检验?如何改进?(未完)

1. 回归方程的假定是什么?

大前提:回归分析模型是正确设立的,具有可解释的经济意义(即模型是通过研究经济理论、选择变量及函数、收集整理统计数据而建立的)。

(1)y 与 x 线性关系

(2)重复抽样中,x 是非随机的(固定的,因为“原因明确”),但 y 是随机的。

(3)对随机误差项 ξi 的假定:零均值、同方差、不相关(即不自相关)

               Eξi=0;Cov(ξi,ξi)=σ^2;Cov(ξi,ξj)=0(i≠j)

(4)随机误差项满足正态分布, ξi ~ N(0, σ^2)

(5)xi 与 ξi 间不相关(即 xi 是外生性变量),Cov(xi,ξi)=0

(6)对于多元还需要:不存在完全的多重共线性

1.1 其中,高斯-马尔可夫条件是什么?

该条件即上述的假定(3),源于高斯-马尔可夫定理,首先说这个定理。

【高斯-马尔可夫定理】在给定经典线性回归的假定下,回归系数的最佳线性无偏估计量就是最小二乘估计(OLS)量。称此时的 OLS 量满足BLUE(Best Linear Unbiased Estimators 最佳线性无偏估计)性质,最佳指方差最小(即估计量的有效性)。

这个定理有什么用?它给我们提供了一个特定条件下寻找BLUE估计量的方法,也就是说如果一个线性回归方程满足某些假定,此时的最小二乘估计量就是最佳线性无偏估计量,不可能找到一个更优的线性无偏估计量,因为这已经是方差最小的情况了。所以我们喜欢研究那些满足该定理中的假定的问题。

这个定理中的内容是什么(红色标注内容)?

  假设(线性方程)

  。(i = 1……n࿰

本文发布于:2024-02-01 07:57:17,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170674544035038.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:假定   未完   后果
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23