题目
1.主观题(50分)1.设X_(1),X_(2),...,X_(n)是总体X的一个样本,试求下列分布中未知参数的矩估计量和最大似然估计量:①U(0,theta)中的theta;②E(lambda)分布中的lambda.
1.主观题(50分)
1.设$X_{1},X_{2},\cdots,X_{n}$是总体X的一个样本,试求下列分布中未知参数的矩估计量和最大似然估计量:①$U(0,\theta)$中的$\theta$;②$E(\lambda)$分布中的$\lambda$.
题目解答
答案
① $U(0, \theta)$ 中的 $\theta$
- 矩估计量:
总体均值 $\mu = \frac{\theta}{2}$,样本均值 $\overline{X}$,解得 $\hat{\theta}_{\text{矩}} = 2\overline{X}$。 - 最大似然估计量:
似然函数 $L(\theta) = \frac{1}{\theta^n} I(\theta > X_{(n)})$,最大值在 $\theta = X_{(n)}$ 处,故 $\hat{\theta}_{\text{似然}} = X_{(n)}$。
② $E(\lambda)$ 分布中的 $\lambda$
- 矩估计量:
总体均值 $\mu = \frac{1}{\lambda}$,样本均值 $\overline{X}$,解得 $\hat{\lambda}_{\text{矩}} = \frac{1}{\overline{X}}$。 - 最大似然估计量:
似然函数 $L(\lambda) = \lambda^n e^{-\lambda \sum X_i}$,求导得最大值在 $\lambda = \frac{1}{\overline{X}}$ 处,故 $\hat{\lambda}_{\text{似然}} = \frac{1}{\overline{X}}$。
$\boxed{\begin{array}{ll}\text{① } \theta \text{ 的矩估计量为 } 2 \overline{X}, \text{ 最大似然估计量为 } X_{(n)}. \\\text{② } \lambda \text{ 的矩估计量为 } \frac{1}{\overline{X}}, \text{ 最大似然估计量为 } \frac{1}{\overline{X}}.\end{array}}$
解析
本题主要考查均匀分布 $U(0,\theta)$ 和指数分布 $E(\lambda)$ 中未知参数的矩估计量和最大似然估计量的求解。解题思路如下:
① 对于均匀分布分布 $U(0,\theta)$ 中参数 \(\theta\\) 的求解
- **矩估计:
- 首先,根据均匀分布的性质求出总体的均值 $\mu$。对于均匀分布 $U(a,b)$ = U(0,\theta)),其概率密度函数为 $f(x)=\begin{cases}\frac{1}{\theta},&0\leq x\leqslant\theta\\0,&\text{其他}\end{cases}$,根据期望公式 $E(X)=\int_{-\infty}^{+\infty}xf(x)dx$,可得总体均值 $\mu = E(X)=\int_{0}^{\theta}x\cdot\frac{1}{\theta}dx$。
- 计算积分:
$\begin{align*}\mu&=\frac{1}{\theta}\int_{0^{\theta}xdx\\&=\frac{1}{\theta}\cdot\frac{1}{2}x^{2}\big|_{0}^{\theta}\\&=\frac{1}{\theta}\cdot\frac{1}{2}(\theta^{2}-0^{2})\\&=\frac{\theta}{2}\end{align*}$ - 然后,用样本均值 $\overline{X}=\frac{1}{n}\sum_{i = 1}^{n}X_{i}$ 代替总体均值 $\mu$,即令 $\frac{\theta}{2}=\overline{X}$,解出 $\theta$ 的矩估计量 $\hat{\theta}_{\text{矩}}$。
$\begin{align*}\frac{\theta}{2}&=\overline{X}\\\hat{\theta}_{\text{矩}}&= 2\overline{X}\end{align*}$
- 最大似然估计:
- 设 $x_1,x_2,\cdots,x_n$ 是样本 $X_1,X_2,\cdots,X_n$ 的一组观测值,似然函数 $L(\theta)$ 是样本的联合概率密度函数。因为样本相互独立且与总体同分布,所以似然函数 $L(\theta)=\prod_{i = 1}^{n}f(x_i;\theta)$。对于 $U(0,\theta)$,$f(x_i)$ 满足 $0\leqslant x_i\leqslant\theta$,$i = 1,2,\cdots,n$,即 $\theta\geqslant\max\{x_1,x_2,\cdots,x_n\}=X_{(n)}$ 时,$x_i)=\frac{1}{\theta}$,否则 $f(x_i;\theta)=0$。所以似然函数 $L(\theta)=\frac{1}{\theta^n}I(\theta > X_{(n)})$,其中 $I(\cdot)$ 是示性函数。
- 为了求 $L(\theta)$ 的最大值,因为 $L(\theta)$ 是关于 $\theta$ 的单调递减函数(当 $\theta\geqslant X_{(n)}$ 时),所以 $L(\theta)$ 在 $\theta = X_{(n)}$ 处取得最大值,故 $\theta$ 的最大似然估计量 $\hat{\theta}_{\text{似然}} = X_{(n)}$。
② 对于指数分布 $E(\lambda)$ 中参数 $\lambda\lambda$ 的求解
- 矩估计:
- 指数分布 $E(\lambda)$ 的概率密度函数为 $f(x)=\begin{cases}\lambda e^{-\lambda x},&x\geqslant0\\0,&x < 0\end{cases}$,根据期望公式 $E(X)=\int_{-\infty}^{\infty}xf(x)dx$,可得总体均值 $\mu = E(X)=\int_{0}^{\infty}x\cdot\lambda e^{-\lambda x}dx$。
- 利用分部积分法计算积分,设 $u = x$,$dv=\lambda e^{-\lambda x}dx$,则 $du = dx$,$v=-e^{-\lambda x}$。
$\begin{align*}\mu&=\int_{0}^{\infty}x\cdot\lambda e^{-\lambda x}dx\\&=\left[-xe^{-\lambda x}\right]_0^{\infty}+\int_{0}^{\infty}e^{-\lambda x}dx\\&=0+\left[-\frac{1}{\lambda}e^{-\lambda x}\right]_0^{\infty}\\&=\frac{1}{\lambda}\end{align*}$ - 用样本均值 $\overline{X}$ 代替总体均值 $\mu$,即令 $\frac{1}{\lambda}=\overline{X}$,解出 $\lambda$ 的矩估计量 $\hat{\lambda}_{\text{矩}}$
$\hat{\lambda}_{\text{矩}}=\frac{1}{\overline{X}$
- 最大似然估计:
- 设 $x_1,x_2,\cdots,x_n$ 是样本 $X_1,X_2,\cdots,X_n$ 的一组观测值,似然函数 $L(\lambda)=\prod_{i = 1}^{n}f(x_i;\lambda)$。对于指数分布 $E(\lambda)$,$f(x_i;\lambda)=\lambda e^{-\lambda x_i}$($x_i\geqslant0$),所以 $L(\lambda)=\prod_{i = 1}^{n}\lambda e^{-\lambda x_i}=\lambda^n e^{-\lambda\sum_{i = 1}^{n}x_i}$。
- 取对数得 $\ln L(\lambda)=n\ln\lambda-\lambda\sum_{i = 1}^{}^{}^{n}x_i$。
- 对 $\ln L(\lambda)$ 求关于 $\lambda$ 的导数:$\ln L(\lambda))'=\frac{n}{\lambda}-\sum_{i = 1}^{n}x_i$。
- 令 $(\ln L(\lambda))' = 0$,即 $\frac{n}{\lambda}-\sum_{i = 1}^{n}x_i}=0$,解这个方程:
$\begin{align*}\frac{n}{\lambda}-\sum_{i = 1}^{n}x_i&=0\\\frac{n}{\lambda}&=\sum_{i = 1}^{n}x_i\\\lambda&=\frac{n}{\sum_{i = 1}^{n}x_i}\end{align*}$ - 因为 $\overline{X}=\frac{1}{n}\sum_{i = 1}^{n}x_i$,所以 $\lambda$ 的最大似然估计量 $\hat{\lambda}_{\text{似然}}=\frac{1}{\overline{X}}$。