2.5 证明hat(beta)_(0)是beta_(0)的无偏估计。
题目解答
答案
解析
考查要点:本题要求证明简单线性回归模型中截距项$\hat{\beta}_0$的最小二乘估计是无偏的,即$E(\hat{\beta}_0) = \beta_0$。
核心思路:
- 无偏估计的定义:估计量的期望等于参数本身。
- 最小二乘估计的表达式:$\hat{\beta}_0 = \bar{Y} - \hat{\beta}_1 \bar{X}$,需结合$\hat{\beta}_1$的无偏性进行推导。
- 关键性质:利用期望的线性性质,以及误差项$\epsilon_i$的零均值性。
步骤1:写出$\hat{\beta}_0$的表达式
根据最小二乘法,截距的估计量为:
$\hat{\beta}_0 = \bar{Y} - \hat{\beta}_1 \bar{X}$
其中$\bar{Y}$和$\bar{X}$是样本均值,$\hat{\beta}_1$是斜率的最小二乘估计。
步骤2:计算$E(\hat{\beta}_0)$
利用期望的线性性质:
$E(\hat{\beta}_0) = E(\bar{Y} - \hat{\beta}_1 \bar{X}) = E(\bar{Y}) - E(\hat{\beta}_1 \bar{X})$
步骤3:计算$E(\bar{Y})$
样本均值$\bar{Y}$的期望为:
$E(\bar{Y}) = E\left(\frac{1}{n} \sum_{i=1}^n Y_i\right) = \frac{1}{n} \sum_{i=1}^n E(Y_i)$
根据回归模型$Y_i = \beta_0 + \beta_1 X_i + \epsilon_i$,且$E(\epsilon_i) = 0$,得:
$E(Y_i) = \beta_0 + \beta_1 X_i$
因此:
$E(\bar{Y}) = \frac{1}{n} \sum_{i=1}^n (\beta_0 + \beta_1 X_i) = \beta_0 + \beta_1 \bar{X}$
步骤4:计算$E(\hat{\beta}_1 \bar{X})$
由于$\bar{X}$是常数,可提取出期望:
$E(\hat{\beta}_1 \bar{X}) = \bar{X} E(\hat{\beta}_1)$
已知$\hat{\beta}_1$是$\beta_1$的无偏估计,即$E(\hat{\beta}_1) = \beta_1$,因此:
$E(\hat{\beta}_1 \bar{X}) = \bar{X} \beta_1$
步骤5:综合结果
将步骤3和步骤4代入步骤2的表达式:
$E(\hat{\beta}_0) = (\beta_0 + \beta_1 \bar{X}) - \beta_1 \bar{X} = \beta_0$
因此,$\hat{\beta}_0$是$\beta_0$的无偏估计。