题目
膅通过引入虚拟变量,可以对模型的参数变化进行检验(对)芁1、简单线性回归模型与多元线性回归模型的基本假定是相同的。错膀在多元线性回归模型里除了对随机误差项提出假定外,还对解释变量之间提羆出无多重共线性的假定。薆2、在模型中引入解释变量的多个滞后项容易产生多重共线性。对肂在分布滞后模型里多引进解释变量的滞后项,由于变量的经济意义一样,只罿是时间不一致,所以很容易引起多重共线性。肆3、DW检验中的DW值在0到4之间,数值越小说明模型随机误差项的自相关度越小,数值越大说明模型随机误差项的自相关度越大。错蚂DW值在0到4之间,DW落在最左边0<DW<dL)最右边(4?dL<DW<4)时,分别为正自相关、负自相关;中间(dU<DW<4?dU)为不存在自相关区域;其次为两个不能判定区域。蒀5螇3、通过虚拟变量将属性因素引入计量经济模型,引入虚拟变量的个数与样膆本容量大小有关。错,引入虚拟变量的个数样本容量大小无关,与变量属性,模型有无截距项有关。肃5、如果联立方程模型中某个结构方程包含了所有的变量,则这个方程不可识别。正确膂没有唯一的统计形式螀3、在异方差性的情况下,若采用Eviews软件中常用的OLS法,必定高估了芆估计量的标准误。错,有可能高估也有可能低估。蒄4、拟合优度检验和F检验是没有区别的。错蚀5、联立方程组模型根本不能直接用OLS方法估计参数。错蕿递归方程可以用OLS方法估计参数,而其它的联立方程组模型不能直莆接用OLS方法估计参数。袅1、在对参数进行最小二乘估计之前,没有必要对模型提出古典假定。错误莂在古典假定条件下,OLS估计得到的参数估计量是该参数的最佳线性无莈偏估计(具有线性、无偏性、有效性)。总之,提出古典假定是为了使所作蒅出的估计量具有较好的统计性质和方便地进行统计推断。莆2、当异方差出现时,常用的t和F检验失效;正确袀由于异方差类似于t比值的统计量所遵从的分布未知;即使遵从t-分莁布,由于方差不在具有最小性。这时往往会夸大t-检验,使得t检验失效;薅由于F-分布为两个独立的χ2变量之比,故依然存在类似于t-分布中的问题。蒃3、解释变量与随机误差项相关,是产生多重共线性的主要原因。错误薂产生多重共线性的主要原因是:经济本变量大多存在共同变化趋势;模膀型中大量采用滞后变量;认识上的局限使得选择变量不当薅5、由间接最小二乘法与两阶段最小二乘法得到的估计量都是无偏估计。错误袄间接最小二乘法适用于恰好识别方程的估计,其估计量为无偏估计;芄而两阶段最小二乘法不仅适用于恰好识别方程,也适用于过度识别方程。衿两阶段最小二乘法得到的估计量为有偏、一致估计。蚅5、秩条件是充要条件,因此,单独利用秩条件就可以完成联立方程识别状芅态的确定。蚁错误。虽然秩条件是充要条件,但其前提是,只有在通过了阶条件的条件蚈下。在对联立方程进行识别时,还应该结合阶条件判断是过度识别,还是恰螅好识别。蚆1、半对数模型Y=β0+β1lnX+μ中,参数β1的含义是X的绝对量变化,引起Y的绝对量变化。错误蒃半对数模型的参数β1的含义是当X的相对变化时,绝对量发生变化,引起因变量Y的平均值绝对量的变动。蚀2、对已经估计出参数的模型不需要进行检验。错误袅有必要进行检验。我们所建立的模型,所用的方法,所用的统计数据,还可能违反计量经济的基本假定,这是也会导致错误的结论。螂4、在有M个方程的完备联立方程组中,当识别的阶条件为H?Ni(H为联立方程组中内生变量和前定变量的总数,i为第i个方程中内生变量和前定变量的总数)N时,则表示第i个方程不可识别。错误。袁表示第i个方程过度识别。葿1.在研究经济变量之间的非确定性关系时,回归分析是唯一可用的分析方法。(X)羅2.最小二乘法进行参数估计的基本原理是使残差平方和最小。(Y)膃3.无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。(Y)荿4.当我们说估计的回归系数在统计上是显着的,意思是说它显着地异于0。(Y)羄5.总离差平方和(TSS)可分解为残差平方和(ESS)与回归平方和(RSS)之和,其中残差平方和(ESS)表示总离差平方和中可由样本回归直线解释的部分。(X)肄6.多元线性回归模型的F检验和t检验是一致的。(X)莀7.当存在严重的多重共线性时,普通最小二乘估计往往会低估参数估计量的方差。(X)螇8.如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的羇自相关。(X)肄9.在存在异方差的情况下,会对回归模型的正确建立和统计推断带来严重后果。(Y)螁10.检验只能检验一阶自相关。(Y)葿1.残差(剩余)项的均值==0。(Y)螆2.所谓OLS估计量的无偏性,是指参数估计量的数学期望等于各自的真值。(Y)膄3.样本可决系数高的回归方程一定比样本可决系数低的回归方程更能说明解释变量对被解释变量的解释能力。(X)膂4.多元线性回归模型中解释变量个数为,则对回归参数进行显着性检验的统计量的自由度一定是。(Y)羇5.对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。(X)薅6.若回归模型存在异方差问题,可以使用加权最小二乘法进行修正。(Y)芄7.根据最小二乘估计,我们可以得到总体回归方程。(X)艿8.当用于检验回归方程显着性的统计量与检验单个系数显着性的统计量结果矛盾虿时,可以认为出现了严重的多重共线性(Y)莄9.线性回归模型中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。(Y)莄10.一般情况下,用线性回归模型进行预测时,单个值预测与均值预测相等,且置信区间也相同。(X)蚀(X)1、在研究经济变量之间的非确定性关系时,回归分析是惟一可用的分析方法。膆(X)2、对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。莇(Y)3、OLS回归方法的基本准则是使残差平方和最小。蒄(X)4、在存在异方差的情况下,OLS法总是高估了估计量的标准差。肀(Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。袈(Y)6、线性回归分析中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。膅(Y)7、当我们说估计的回归系数在统计上是显着的,意思是说它显着异于0。薄(X)8、总离差平方和(TSS)可分解为残差平方(ESS)和与回归平方和(RSS),蒁其中残差平方(ESS)表示总离差平方和可由样本回归直线解释的部分。芆(X)9、所谓OLS估计量的无偏性,是指回归参数的估计值与真实值相等。袄(X)10、当模型中解释变量均为确定性变量时,则可以用DW统计量来检验模型的随机误差项所有形式的自相关性。蚄(X)1、一般情况下,在用线性回归模型进行预测时,个值预测与均值预测结果相等,且它们的置信区间也相同。薈(Y)2、对于模型Yi=β+β1X1i+β2X2i+……+βkXki+μi,i=1,2,……,n;如果X2=X5+X6,则模型必然存在解释变量的多重共线性问题。羈(X)3、OLS回归方法的基本准则是使残差项之和最小。蚃(Y)4、在随机误差项存在正自相关的情况下,OLS法总是低估了估计量的标准差。蚃(Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。聿(Y)6、一元线性回归模型的F检验和t检验是一致的。蒆(X)7、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的序列相关。蚆(Y)8、在近似多重共线性下,只要模型满足OLS的基本假定,则回归系数的最小二乘估计量仍然是一BLUE估计量。螃(X)9、所谓参数估计量的线性性,是指参数估计量是解释变量的线性组合。蒀(Y)10、拟合优度的测量指标是可决系数R2或调整过的可决系数,R2越大,说明回归方程对样本的拟合程度越高。膈(Y )1、最小二乘法进行参数估计的基本原理是使残差平方和最小。蒅(X )2、一般情况下,用线性回归模型进行预测时,个值预测与均值预测相等,且置信区间也相同。袃( X )3、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的序列相关。袁( Y )4、若回归模型存在异方差问题,应使用加权最小二乘法进行修正。5、多元线性回归模型的F检验和t检验是一致的。( )
膅通过引入虚拟变量,可以对模型的参数变化进行检验(对)芁1、简单线性回归模型与多元线性回归模型的基本假定是相同的。错膀在多元线性回归模型里除了对随机误差项提出假定外,还对解释变量之间提羆出无多重共线性的假定。薆2、在模型中引入解释变量的多个滞后项容易产生多重共线性。对肂在分布滞后模型里多引进解释变量的滞后项,由于变量的经济意义一样,只罿是时间不一致,所以很容易引起多重共线性。肆3、DW检验中的DW值在0到4之间,数值越小说明模型随机误差项的自相关度越小,数值越大说明模型随机误差项的自相关度越大。错蚂DW值在0到4之间,DW落在最左边0<DW<dL)最右边(4?dL<DW<4)时,分别为正自相关、负自相关;中间(dU<DW<4?dU)为不存在自相关区域;其次为两个不能判定区域。蒀5螇3、通过虚拟变量将属性因素引入计量经济模型,引入虚拟变量的个数与样膆本容量大小有关。错,引入虚拟变量的个数样本容量大小无关,与变量属性,模型有无截距项有关。肃5、如果联立方程模型中某个结构方程包含了所有的变量,则这个方程不可识别。正确膂没有唯一的统计形式螀3、在异方差性的情况下,若采用Eviews软件中常用的OLS法,必定高估了芆估计量的标准误。错,有可能高估也有可能低估。蒄4、拟合优度检验和F检验是没有区别的。错蚀5、联立方程组模型根本不能直接用OLS方法估计参数。错蕿递归方程可以用OLS方法估计参数,而其它的联立方程组模型不能直莆接用OLS方法估计参数。袅1、在对参数进行最小二乘估计之前,没有必要对模型提出古典假定。错误莂在古典假定条件下,OLS估计得到的参数估计量是该参数的最佳线性无莈偏估计(具有线性、无偏性、有效性)。总之,提出古典假定是为了使所作蒅出的估计量具有较好的统计性质和方便地进行统计推断。莆2、当异方差出现时,常用的t和F检验失效;正确袀由于异方差类似于t比值的统计量所遵从的分布未知;即使遵从t-分莁布,由于方差不在具有最小性。这时往往会夸大t-检验,使得t检验失效;薅由于F-分布为两个独立的χ2变量之比,故依然存在类似于t-分布中的问题。蒃3、解释变量与随机误差项相关,是产生多重共线性的主要原因。错误薂产生多重共线性的主要原因是:经济本变量大多存在共同变化趋势;模膀型中大量采用滞后变量;认识上的局限使得选择变量不当薅5、由间接最小二乘法与两阶段最小二乘法得到的估计量都是无偏估计。错误袄间接最小二乘法适用于恰好识别方程的估计,其估计量为无偏估计;芄而两阶段最小二乘法不仅适用于恰好识别方程,也适用于过度识别方程。衿两阶段最小二乘法得到的估计量为有偏、一致估计。蚅5、秩条件是充要条件,因此,单独利用秩条件就可以完成联立方程识别状芅态的确定。蚁错误。虽然秩条件是充要条件,但其前提是,只有在通过了阶条件的条件蚈下。在对联立方程进行识别时,还应该结合阶条件判断是过度识别,还是恰螅好识别。蚆1、半对数模型Y=β0+β1lnX+μ中,参数β1的含义是X的绝对量变化,引起Y的绝对量变化。错误蒃半对数模型的参数β1的含义是当X的相对变化时,绝对量发生变化,引起因变量Y的平均值绝对量的变动。蚀2、对已经估计出参数的模型不需要进行检验。错误袅有必要进行检验。我们所建立的模型,所用的方法,所用的统计数据,还可能违反计量经济的基本假定,这是也会导致错误的结论。螂4、在有M个方程的完备联立方程组中,当识别的阶条件为H?Ni(H为联立方程组中内生变量和前定变量的总数,i为第i个方程中内生变量和前定变量的总数)N时,则表示第i个方程不可识别。错误。袁表示第i个方程过度识别。葿
1.在研究经济变量之间的非确定性关系时,回归分析是唯一可用的分析方法。(X)羅
2.最小二乘法进行参数估计的基本原理是使残差平方和最小。(Y)膃
3.无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。(Y)荿
4.当我们说估计的回归系数在统计上是显着的,意思是说它显着地异于0。(Y)羄
5.总离差平方和(TSS)可分解为残差平方和(ESS)与回归平方和(RSS)之和,其中残差平方和(ESS)表示总离差平方和中可由样本回归直线解释的部分。(X)肄
6.多元线性回归模型的F检验和t检验是一致的。(X)莀
7.当存在严重的多重共线性时,普通最小二乘估计往往会低估参数估计量的方差。(X)螇
8.如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的羇自相关。(X)肄
9.在存在异方差的情况下,会对回归模型的正确建立和统计推断带来严重后果。(Y)螁1
0.检验只能检验一阶自相关。(Y)葿
1.残差(剩余)项的均值==0。(Y)螆
2.所谓OLS估计量的无偏性,是指参数估计量的数学期望等于各自的真值。(Y)膄
3.样本可决系数高的回归方程一定比样本可决系数低的回归方程更能说明解释变量对被解释变量的解释能力。(X)膂
4.多元线性回归模型中解释变量个数为,则对回归参数进行显着性检验的统计量的自由度一定是。(Y)羇
5.对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。(X)薅
6.若回归模型存在异方差问题,可以使用加权最小二乘法进行修正。(Y)芄
7.根据最小二乘估计,我们可以得到总体回归方程。(X)艿
8.当用于检验回归方程显着性的统计量与检验单个系数显着性的统计量结果矛盾虿时,可以认为出现了严重的多重共线性(Y)莄
9.线性回归模型中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。(Y)莄1
0.一般情况下,用线性回归模型进行预测时,单个值预测与均值预测相等,且置信区间也相同。(X)蚀(X)1、在研究经济变量之间的非确定性关系时,回归分析是惟一可用的分析方法。膆(X)2、对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。莇(Y)3、OLS回归方法的基本准则是使残差平方和最小。蒄(X)4、在存在异方差的情况下,OLS法总是高估了估计量的标准差。肀(Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。袈(Y)6、线性回归分析中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。膅(Y)7、当我们说估计的回归系数在统计上是显着的,意思是说它显着异于0。薄(X)8、总离差平方和(TSS)可分解为残差平方(ESS)和与回归平方和(RSS),蒁其中残差平方(ESS)表示总离差平方和可由样本回归直线解释的部分。芆(X)9、所谓OLS估计量的无偏性,是指回归参数的估计值与真实值相等。袄(X)10、当模型中解释变量均为确定性变量时,则可以用DW统计量来检验模型的随机误差项所有形式的自相关性。蚄(X)1、一般情况下,在用线性回归模型进行预测时,个值预测与均值预测结果相等,且它们的置信区间也相同。薈(Y)2、对于模型Yi=β+β1X1i+β2X2i+……+βkXki+μi,i=1,2,……,n;如果X2=X5+X6,则模型必然存在解释变量的多重共线性问题。羈(X)3、OLS回归方法的基本准则是使残差项之和最小。蚃(Y)4、在随机误差项存在正自相关的情况下,OLS法总是低估了估计量的标准差。蚃(Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。聿(Y)6、一元线性回归模型的F检验和t检验是一致的。蒆(X)7、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的序列相关。蚆(Y)8、在近似多重共线性下,只要模型满足OLS的基本假定,则回归系数的最小二乘估计量仍然是一BLUE估计量。螃(X)9、所谓参数估计量的线性性,是指参数估计量是解释变量的线性组合。蒀(Y)10、拟合优度的测量指标是可决系数R2或调整过的可决系数,R2越大,说明回归方程对样本的拟合程度越高。膈(Y )1、最小二乘法进行参数估计的基本原理是使残差平方和最小。蒅(X )2、一般情况下,用线性回归模型进行预测时,个值预测与均值预测相等,且置信区间也相同。袃( X )3、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的序列相关。袁( Y )4、若回归模型存在异方差问题,应使用加权最小二乘法进行修正。5、多元线性回归模型的F检验和t检验是一致的。( )
1.在研究经济变量之间的非确定性关系时,回归分析是唯一可用的分析方法。(X)羅
2.最小二乘法进行参数估计的基本原理是使残差平方和最小。(Y)膃
3.无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。(Y)荿
4.当我们说估计的回归系数在统计上是显着的,意思是说它显着地异于0。(Y)羄
5.总离差平方和(TSS)可分解为残差平方和(ESS)与回归平方和(RSS)之和,其中残差平方和(ESS)表示总离差平方和中可由样本回归直线解释的部分。(X)肄
6.多元线性回归模型的F检验和t检验是一致的。(X)莀
7.当存在严重的多重共线性时,普通最小二乘估计往往会低估参数估计量的方差。(X)螇
8.如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的羇自相关。(X)肄
9.在存在异方差的情况下,会对回归模型的正确建立和统计推断带来严重后果。(Y)螁1
0.检验只能检验一阶自相关。(Y)葿
1.残差(剩余)项的均值==0。(Y)螆
2.所谓OLS估计量的无偏性,是指参数估计量的数学期望等于各自的真值。(Y)膄
3.样本可决系数高的回归方程一定比样本可决系数低的回归方程更能说明解释变量对被解释变量的解释能力。(X)膂
4.多元线性回归模型中解释变量个数为,则对回归参数进行显着性检验的统计量的自由度一定是。(Y)羇
5.对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。(X)薅
6.若回归模型存在异方差问题,可以使用加权最小二乘法进行修正。(Y)芄
7.根据最小二乘估计,我们可以得到总体回归方程。(X)艿
8.当用于检验回归方程显着性的统计量与检验单个系数显着性的统计量结果矛盾虿时,可以认为出现了严重的多重共线性(Y)莄
9.线性回归模型中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。(Y)莄1
0.一般情况下,用线性回归模型进行预测时,单个值预测与均值预测相等,且置信区间也相同。(X)蚀(X)1、在研究经济变量之间的非确定性关系时,回归分析是惟一可用的分析方法。膆(X)2、对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。莇(Y)3、OLS回归方法的基本准则是使残差平方和最小。蒄(X)4、在存在异方差的情况下,OLS法总是高估了估计量的标准差。肀(Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。袈(Y)6、线性回归分析中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。膅(Y)7、当我们说估计的回归系数在统计上是显着的,意思是说它显着异于0。薄(X)8、总离差平方和(TSS)可分解为残差平方(ESS)和与回归平方和(RSS),蒁其中残差平方(ESS)表示总离差平方和可由样本回归直线解释的部分。芆(X)9、所谓OLS估计量的无偏性,是指回归参数的估计值与真实值相等。袄(X)10、当模型中解释变量均为确定性变量时,则可以用DW统计量来检验模型的随机误差项所有形式的自相关性。蚄(X)1、一般情况下,在用线性回归模型进行预测时,个值预测与均值预测结果相等,且它们的置信区间也相同。薈(Y)2、对于模型Yi=β+β1X1i+β2X2i+……+βkXki+μi,i=1,2,……,n;如果X2=X5+X6,则模型必然存在解释变量的多重共线性问题。羈(X)3、OLS回归方法的基本准则是使残差项之和最小。蚃(Y)4、在随机误差项存在正自相关的情况下,OLS法总是低估了估计量的标准差。蚃(Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。聿(Y)6、一元线性回归模型的F检验和t检验是一致的。蒆(X)7、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的序列相关。蚆(Y)8、在近似多重共线性下,只要模型满足OLS的基本假定,则回归系数的最小二乘估计量仍然是一BLUE估计量。螃(X)9、所谓参数估计量的线性性,是指参数估计量是解释变量的线性组合。蒀(Y)10、拟合优度的测量指标是可决系数R2或调整过的可决系数,R2越大,说明回归方程对样本的拟合程度越高。膈(Y )1、最小二乘法进行参数估计的基本原理是使残差平方和最小。蒅(X )2、一般情况下,用线性回归模型进行预测时,个值预测与均值预测相等,且置信区间也相同。袃( X )3、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的序列相关。袁( Y )4、若回归模型存在异方差问题,应使用加权最小二乘法进行修正。5、多元线性回归模型的F检验和t检验是一致的。( )
题目解答
答案
错误