文档库 最新最全的文档下载
当前位置:文档库 › 2 经典线性回归模型I

2 经典线性回归模型I

2 经典线性回归模型I
2 经典线性回归模型I

第二章经典线性回归模型:估计、统计性质与统计检验

?经典线性回归模型:假设与OLS估计

?OLS估计的小样本性质与统计检验

?OLS估计的大样本性质与统计检验

§1.1 经典线性回归模型:

假设与OLS估计

一、经典线性回归模型

二、经典线性回归模型的OLS估计

E(Y|X)

回归分析的

基本逻辑:寻

找样本回归

线,并用样本

回归线近似代

表总体回归线

问题:

能否代表?

需要通过检验来回答!

(1) 对残差平方和

SSR(b )= Σe t 2=e ’e =(Y -Xb )’(Y -Xb ) 1阶偏导: ?SSR/?b = -2X ’(Y-Xb )

2阶偏导: ?2SSR/?b ?b ’= 2X ’X

由于X ’X 为正定矩阵(Why?), 从而b =(X ’X )-1(X ’Y )是最小值 由1阶极值条件可以得到所谓正规方程(normal equations ): X ’(Y-Y-Xb

Xb )=X ’e =0 ? Σt X tj e t =0 (j=1,2,…,k )当模型含有值恒为1的常数项时, Σe t =0

正规方程是OLS 所特有的,而不论是否有E(ε

t |X )=0

2、OLS 估计的数值性质

(4)一些有用的等式

a. X’e=0

b. b ?β=(X’X)-1X’ε

因为b=(X’X)-1X’Y=(X’X)-1X’(Xβ+ε)=β+(X’X)-1X’ε c. 定义n×n方阵:

P P X=X(X’X)-1X’(投影矩阵),M X=I n?P X(消灭矩阵)则P

=P X’, M M X=M X’

X

P X2=P X, M M X2=M X

X=X, M X X=O n×(k+1)

且P

X

d. e=M X Y=M Xε

SSR(b)=e’e=Y’M X Y=ε’M Xε

二元回归的示例图

赤池信息准则(Akaike information criterion, AIC, 1973) AIC=ln[e’e/n]+2(k+1)/n

=goodness of fit + model complexity

AIC= -2ln L/n +2(k+1)/n

贝叶斯信息准则(Baysian information criterion, BIC)施瓦茨准则(Schwarz criterion,SC, 1978)

BIC=ln[e’e/n]+(k+1)ln(n)/n

BIC/SC= -2ln L/n+(k+1)ln(n)/n

贝叶斯信息准则对多引入多余的解释变量给出

了更重的惩罚。

最新第二章(简单线性回归模型)2-3答案

2.3拟合优度的度量 一、判断题 1.当 ()∑-2i y y 确定时,()∑-2 i y y ?越小,表明模型的拟合优度越好。(F ) 2.可以证明,可决系数2R 高意味着每个回归系数都是可信任的。(F ) 3.可决系数2R 的大小不受到回归模型中所包含的解释变量个数的影响。(F ) 4.任何两个计量经济模型的2R 都是可以比较的。(F ) 5.拟合优度2R 的值越大,说明样本回归模型对数据的拟合程度越高。( T ) 6.结构分析是2R 高就足够了,作预测分析时仅要求可决系数高还不够。( F ) 7.通过2R 的高低可以进行显著性判断。(F ) 8.2R 是非随机变量。(F ) 二、单项选择题 1.已知某一直线回归方程的可决系数为0.64,则解释变量与被解释变量间的线性相关系数为( B )。 A .±0.64 B .±0.8 C .±0.4 D .±0.32 2.可决系数2R 的取值范围是( C )。 A .2R ≤-1 B .2R ≥1 C .0≤2R ≤1 D .-1≤2R ≤1 3.下列说法中正确的是:( D ) A 如果模型的2R 很高,我们可以认为此模型的质量较好 B 如果模型的2R 较低,我们可以认为此模型的质量较差 C 如果某一参数不能通过显著性检验,我们应该剔除该解释变量 D 如果某一参数不能通过显著性检验,我们不应该随便剔除该解释变量 三、多项选择题 1.反映回归直线拟合优度的指标有( ACDE )。 A .相关系数 B .回归系数 C .样本可决系数 D .回归方程的标准差 E .剩余变差(或残差平方和) 2.对于样本回归直线i 01i ???Y X ββ+=,回归变差可以表示为( ABCDE )。 A .2 2i i i i ?Y Y -Y Y ∑ ∑  (-) (-) B .2 2 1 i i ?X X β∑ (-) C .2 2 i i R Y Y ∑ (-) D .2 i i ?Y Y ∑(-) E .1 i i i i ?X X Y Y β∑ (-()-) 3.对于样本回归直线i 01i ???Y X ββ+=,?σ为估计标准差,下列可决系数的算式中,正确的有( ABCDE )。 A .2i i 2 i i ?Y Y Y Y ∑∑(-)(-) B .2i i 2 i i ?Y Y 1Y Y ∑∑ (-)-(-)

简单线性回归模型

第二章 简单线性回归模型 一、单项选择题 1.影响预测误差的因素有( ) A .置信度 B .样本容量 C .新解释变量X 0偏离解释变量均值的程度 D .如果给定值X 0等于X 的均值时,置信区间越长越好。 2.OLS E 的统计性质( ) A .线性无偏性 B .独具最小方差性 C .线性有偏 D .β∧ 是β的一致估计 3.OLSE 的基本假定( ) A .解释变量非随机 B .零均值 C .同方差 D .不自相关 4.F 检验与拟合优度指标之间的关系( ) A . 21111n p p R --?? ?- ?-?? B . 21111n p p R --?? ?- ?-?? C . 2111n p p R -???- ?-?? D . 2111n p p R -???- ?-?? 5.相关分析和回归分析的共同点( ) A .都可表示程度和方向 B .必须确定解释(自)变量和被解释(因)变量 C .不用确定解释(自)变量和被解释(因)变量 D .都研究变量间的统计关系 6.OLS E 的基本假设有( ) A .解释变量是随机的 B .随机误差项的零均值假设

C .随机误差项同方差假设 D .随机误差项线性相关假设 7.与 2 ()() 1 ()1i i i n x x y y i n x x i - --==∑∑ 等价的式子是( ) A .2 2 1()1i i i n x y nx y i n x n x i -=-=∑∑ B .2()1()1i i i n x x y i n x x i --==∑∑ C .2()1()1i i i n x x x i n x x i -=-=∑∑ D .xy xx L L 8.下列等式正确的是( ) A .SSR=SST+SSE B .SST=SSR+SSE C .SSE=SSR+SST D .SST=SST ×SSE 9.无偏估计量i β的方差是( ) A . 2 1 () n j j X X σ=-∑ B . 2 2 1 ()n j j X X σ=-∑ C . 2 () n j j X X σ=-∑

(完整版)第二章(简单线性回归模型)2-2答案

2.2 简单线性回归模型参数的估计 一、判断题 1.使用普通最小二乘法估计模型时,所选择的回归线使得所有观察值的残差和达到最小。(F) 2.随机扰动项和残差项是一回事。(F ) 3.在任何情况下OLS 估计量都是待估参数的最优线性无偏估计。(F ) 4.满足基本假设条件下,随机误差项i μ服从正态分布,但被解释变量Y 不一定服从正态分 布。 ( F ) 5.如果观测值i X 近似相等,也不会影响回归系数的估计量。 ( F ) 二、单项选择题 1.设样本回归模型为i 01i i ??Y =X +e ββ+,则普通最小二乘法确定的i ?β的公式中,错误的是( D )。 A . ()() () i i 1 2 i X X Y -Y ?X X β--∑∑= B .() i i i i 12 2i i n X Y -X Y ? n X -X β∑∑∑∑∑= C .i i 122i X Y -nXY ?X -nX β∑∑= D .i i i i 12x n X Y -X Y ?βσ∑∑∑= 2.以Y 表示实际观测值,?Y 表示回归估计值,则普通最小二乘法估计参数的准则是使( D )。 A .i i ?Y Y 0∑(-)= B .2 i i ?Y Y 0∑ (-)= C .i i ?Y Y ∑(-)=最小 D .2 i i ?Y Y ∑ (-)=最小 3.设Y 表示实际观测值,?Y 表示OLS 估计回归值,则下列哪项成立( D )。 A .?Y Y = B .?Y Y = C .?Y Y = D .?Y Y = 4.用OLS 估计经典线性模型i 01i i Y X u ββ+=+,则样本回归直线通过点( D )。 A .X Y (,) B . ?X Y (,) C .?X Y (,) D .X Y (,) 5.以Y 表示实际观测值,?Y 表示OLS 估计回归值,则用OLS 得到的样本回归直线i 01i ???Y X ββ+=满足( A )。 A .i i ?Y Y 0∑(-)= B .2 i i Y Y 0∑ (-)= C . 2 i i ?Y Y 0∑ (-)= D .2i i ?Y Y 0∑ (-)= 6.按经典假设,线性回归模型中的解释变量应是非随机变量,且( A )。 i u i e

简单线性回归模型试题及答案

第二章 简单线性回归模型 一、单项选择题: 1、回归分析中定义的( B )。 A 、解释变量和被解释变量都是随机变量 B 、解释变量为非随机变量,被解释变量为随机变量 C 、解释变量和被解释变量都为非随机变量 D 、解释变量为随机变量,被解释变量为非随机变量 2、最小二乘准则是指使( D )达到最小值的原则确定样本回归方程。 A 、1?()n t t t Y Y =-∑ B 、1?n t t t Y Y =-∑ C 、?max t t Y Y - D 、21?()n t t t Y Y =-∑ 3、下图中“{”所指的距离是( B )。 A 、随机误差项 i 、?i Y 的离差 4、参数估计量?β是i Y 的线性函数称为参数估计量具有( A )的性质。 A 、线性 B 、无偏性 C 、有效性 D 、一致性 5、参数β的估计量β?具备有效性是指( B )。 A 、0)?(=βVar B 、)?(βVar 为最小 C 、0?=-ββ D 、)?(ββ-为最小 6、反映由模型中解释变量所解释的那部分离差大小的是( B )。 A 、总体平方和 B 、回归平方和 C 、残差平方和 D 、样本平方和 7、总体平方和TSS 、残差平方和RSS 与回归平方和ESS 三者的关系是( B )。 A 、RSS=TSS+ESS B 、TSS=RSS+ESS C 、ESS=RSS-TSS D 、ESS=TSS+RSS 8、下面哪一个必定是错误的( C )。 A 、 i i X Y 2.030?+= ,8.0=XY r B 、 i i X Y 5.175?+-= ,91.0=XY r C 、 i i X Y 1.25?-=,78.0=XY r D 、 i i X Y 5.312?--=,96.0-=XY r 9、产量(X ,台)与单位产品成本(Y ,元/台)之间的回归方程为?356 1.5Y X =-,这说明( D )。 A 、产量每增加一台,单位产品成本增加356元 B 、产量每增加一台,单位产品成本减少1.5元 C 、产量每增加一台,单位产品成本平均增加356元 D 、产量每增加一台,单位产品成本平均减少1.5元 10、回归模型i i i X Y μββ++=10,i = 1,…,25中,总体方差未知,检验010=β:H 时,所用的检验统计量1?1 1?βββS -服从( D )。 A 、)(22-n χ B 、)(1-n t C 、)(12-n χ D 、)(2-n t 11、对下列模型进行经济意义检验,哪一个模型通常被认为没有实际价值的( B )。 A 、i C (消费)i I 8.0500+=(收入) B 、di Q (商品需求)i I 8.010+=(收入)i P 9.0+(价格) C 、si Q (商品供给)i P 75.020+=(价格) D 、i Y (产出量)6.065.0i K =(资本)4.0i L (劳动) 12、进行相关分析时,假定相关的两个变量( A )。 X 1?β+ i Y

经典线性回归模型

2 经典线性回归模型 §2.1 概念与记号 1.线性回归模型是用来描述一个特定变量y 与其它一些变量x 1,…,x p 之间的关系。 2. 称特定变量y 为因变量 (dependent variable )、 被解释变量 (explained variable )、 响应变量(response variable )、被预测变量(predicted variable )、回归子 (regressand )。 3.称与特定变量相关的其它一些变量x 1,…,x p 为自变量(independent variable )、 解释变量(explanatory variable )、控制变量(control variable )、预测变量 (predictor variable )、回归量(regressor )、协变量(covariate )。 4.假定我们观测到上述这些变量的n 组值:( ) ip i i x x y , , , 1 L (i=1,…,n)。称 这n 组值为样本(sample )或数据(data )。 §2.2 经典线性回归模型的假定 假定 2.1(线性性(linearity)) i ip p i i x x y e b b b + + + + = L 1 1 0 (i=1,…,n)。 (2.1) 称方程(2.1)为因变量y 对自变量x 1,…,x p 的线性回归方程(linear regression equation ),其中 ( ) p , k k , , 1 0 L = b 是待估的未知参数(unknown parameters ), ( ) n i i , , 1 L = e 是满足一定限制条件的无法观测的误差项(unobserved error term ) 。称自 变量的函数 ip p i x x b b b + + + L 1 1 0 为回归函数(regression function )或简称为回归 (regression )。称 0 b 为回归的截距(ntercept),称 ( ) p k k , , 1 L = b 为自变量的回归系数 (regression coefficients ) 。某个自变量的回归系数表示在其它条件保持不变的情况下,

第二章(简单线性回归模型)2-2答案教学文稿

第二章(简单线性回归模型)2-2答案

2.2 简单线性回归模型参数的估计 一、判断题 1.使用普通最小二乘法估计模型时,所选择的回归线使得所有观察值的残差和达到最小。(F) 2.随机扰动项i u 和残差项i e 是一回事。(F ) 3.在任何情况下OLS 估计量都是待估参数的最优线性无偏估计。(F ) 4.满足基本假设条件下,随机误差项i μ服从正态分布,但被解释变量Y 不一定服从正态分 布。 ( F ) 5.如果观测值i X 近似相等,也不会影响回归系数的估计量。 ( F ) 二、单项选择题 1.设样本回归模型为i 01i i ??Y =X +e ββ+,则普通最小二乘法确定的i ?β的公式中,错误的是( D )。 A . ()() () i i 1 2 i X X Y -Y ?X X β--∑∑= B . () i i i i 1 2 2i i n X Y -X Y ?n X -X β ∑∑∑∑∑= C .i i 122i X Y -nXY ?X -nX β∑∑= D .i i i i 12 x n X Y -X Y ?βσ∑∑∑= 2.以Y 表示实际观测值,?Y 表示回归估计值,则普通最小二乘法估计参数的准则是使( D )。 A .i i ?Y Y 0∑(-)= B .2 i i ?Y Y 0∑ (-)= C .i i ?Y Y ∑(-)=最小 D .2 i i ?Y Y ∑ (-)=最小 3.设Y 表示实际观测值,?Y 表示OLS 估计回归值,则下列哪项成立( D )。 A .?Y Y = B .?Y Y = C .?Y Y = D .?Y Y = 4.用OLS 估计经典线性模型i 01i i Y X u ββ+=+,则样本回归直线通过点( D )。 A .X Y (,) B . ?X Y (,) C .?X Y (,) D .X Y (,) 5.以Y 表示实际观测值,?Y 表示OLS 估计回归值,则用OLS 得到的样本回归直线

简单线性回归分析思考与练习参考答案

第10章 简单线性回归分析 思考与练习参考答案 一、最佳选择题 1.如果两样本的相关系数21r r =,样本量21n n =,那么( D )。 A. 回归系数21b b = B .回归系数12b b < C. 回归系数21b b > D .t 统计量11r b t t = E. 以上均错 2.如果相关系数r =1,则一定有( C )。 A .总SS =残差SS B .残差SS =回归 SS C .总SS =回归SS D .总SS >回归SS E. 回归MS =残差MS 3.记ρ为总体相关系数,r 为样本相关系数,b 为样本回归系数,下列( D )正确。 A .ρ=0时,r =0 B .|r |>0时,b >0 C .r >0时,b <0 D .r <0时,b <0 E. |r |=1时,b =1 4.如果相关系数r =0,则一定有( D )。 A .简单线性回归的截距等于0 B .简单线性回归的截距等于Y 或X C .简单线性回归的残差SS 等于0 D .简单线性回归的残差SS 等于SS 总 E .简单线性回归的总SS 等于0 5.用最小二乘法确定直线回归方程的含义是( B )。 A .各观测点距直线的纵向距离相等 B .各观测点距直线的纵向距离平方和最小 C .各观测点距直线的垂直距离相等 D .各观测点距直线的垂直距离平方和最小 E .各观测点距直线的纵向距离等于零 二、思考题 1.简述简单线性回归分析的基本步骤。 答:① 绘制散点图,考察是否有线性趋势及可疑的异常点;② 估计回归系数;③ 对总体回归系数或回归方程进行假设检验;④ 列出回归方程,绘制回归直线;⑤ 统计应用。 2.简述线性回归分析与线性相关的区别与联系。

常见非线性回归模型

常见非线性回归模型 1.简非线性模型简介 非线性回归模型在经济学研究中有着广泛的应用。有一些非线性回归模型可以通 过直接代换或间接代换转化为线性回归模型,但也有一些非线性回归模型却无 法通过代换转化为线性回归模型。 柯布—道格拉斯生产函数模型 y AKL 其中L和K分别是劳力投入和资金投入, y是产出。由于误差项是可加的, 从而也不能通过代换转化为线性回归模型。 对于联立方程模型,只要其中有一个方程是不能通过代换转化为线性,那么这个联立方程模型就是非线性的。 单方程非线性回归模型的一般形式为 y f(x1,x2, ,xk; 1, 2, , p) 2.可化为线性回归的曲线回归 在实际问题当中,有许多回归模型的被解释变量y与解释变量x之间的关系都不是线性的,其中一些回归模型通过对自变量或因变量的函数变换可以转化为

线性关系,利用线性回归求解未知参数,并作回归诊断。如下列模型。 (1)y 0 1e x (2)y 0 1x2x2p x p (3)y ae bx (4)y=alnx+b 对于(1)式,只需令x e x即可化为y对x是线性的形式y01x,需要指出的是,新引进的自变量只能依赖于原始变量,而不能与未知参数有关。 对于(2)式,可以令x1=x,x2=x2,?,x p=x p,于是得到y关于x1,x2,?, x p 的线性表达式y 0 1x12x2 pxp 对与(3)式,对等式两边同时去自然数对数,得lnylnabx ,令 y lny, 0 lna, 1 b,于是得到y关于x的一元线性回归模型: y 0 1x。 乘性误差项模型和加性误差项模型所得的结果有一定差异,其中乘性误差项模型认为yt本身是异方差的,而lnyt是等方差的。加性误差项模型认为yt是等 方差的。从统计性质看两者的差异,前者淡化了y t值大的项(近期数据)的作用, 强化了y t值小的项(早期数据)的作用,对早起数据拟合得效果较好,而后者则 对近期数据拟合得效果较好。 影响模型拟合效果的统计性质主要是异方差、自相关和共线性这三个方面。 异方差可以同构选择乘性误差项模型和加性误差项模型解决,必要时还可以使用 加权最小二乘。

(完整版)第二章(简单线性回归模型)2-2答案

2.2简单线性回归模型参数的估计 、判断题 1. 使用普通最小二乘法估计模型时, (F ) 2. 随机扰动项u i 和残差项e i 是一回事。 (F ) 3. 在 任何情况下OLS 估计量都是待估参数的最 优线性无偏估计。 (F ) 布。 5.如果观测值X i 近似相等,也不会影响回归系数的估计量 】、单项选择题 1.设样本回归模型为 Y i =" ? X i +e i D )。 A. ?= ■ 1 X i X X i X Y i -Y ? X i Y i -nXY c. - X i 2-nX 2 2 ?以 丫表示实际观测值 ,Y?表示回归估计值, 则普通最小二乘法确定的 ?的公式中, 错误的是 ?n X i Y i - X i Y i i n X i 2- X i 2 ?_ n X i Y i - X i Y i i 1 2 x 则普通最小二乘法估计参数的准则是使 (D ) A. (丫— Y i )=o c. (Y — £ )=最小 「? 一 Y A . (X, 丫 ) 5.以丫表示实际观测值, 丫?表示OLS 估计回归值,则用 OLS 得到的样本回归直线 丫 ?一 ?) 4?满足基本假设条件下,随机误差项 i 服从正态分布,但被解释变量 Y 不一定服从正态分 所选择的回归线使得所有观察值的残差和达到最 3. 丫表示实际观测值 丫?表示OLS 估计回归值,则下列哪项成立( D A. 4.用OLS 估计经典线性模型 Y i — 0 i X i + u i ,则样本回归直线通过点( .(X, Y?)

满足(A)。 A.(Y i—丫i)一0 B . (Y i —Y)2 - 0 C.(Y—丫)2-0 D .(丫Y)-0 6.按经典假设,线性回归模型中的解释变量应是非随机变量,且(

计量经济学讲义第二讲(共十讲)

第二讲 普通最小二乘估计量 一、基本概念:估计量与估计值 对总体参数的一种估计法则就是估计量。例如,为了估计总体均值为u ,我们可以抽取一个容量为N 的样本,令Y i 为第i 次观测值,则u 的一个很自然的 估计量就是?i Y u Y N ==∑。A 、B 两同学都利用了这种 估计方法,但手中所掌握的样本分别是12(,,...,)A A A N y y y 与12(,,...,)B B B N y y y 。A 、B 两同学分别计算出估计值 ?A i A y u N =∑ 与?B i B y u N =∑ 。因此,在上例中,估计量?u 是随机的,而??,A B u u 是该随机变量可能的取值。估计量 所服从的分布称为抽样分布。 如果真实模型是:01y x ββε=++,其中01,ββ是待估计的参数,而相应的OLS 估计量就是: 1 01 2 ()???;() i i i x x y y x x x βββ-==--∑∑ 我们现在的任务就是,基于一些重要的假定,来考察上述OLS 估计量所具有的一些性质。 二、高斯-马尔科夫假定

●假定一:真实模型是:01y x ββε=++。有三种 情况属于对该假定的违背:(1)遗漏了相关的解释变量或者增加了无关的解释变量;(2)y 与x 间的关系是非线性的;(3)01,ββ并不是常数。 ●假定二:在重复抽样中,12(,,...,)N x x x 被预先固定 下来,即12(,,...,)N x x x 是非随机的(进一步的阐释见附录),显然,如果解释变量含有随机的测量误差,那么该假定被违背。还存其他的违背该假定的情况。 笔记: 12(,,...,)N x x x 是随机的情况更一般化,此时,高斯-马尔科夫假定二被更改为:对任意,i j ,i x 与j ε不相关,此即所谓的解释变量具有严格外生性。显然,当12(,,...,)N x x x 非随机时,i x 与j ε必定不相关,这是因为j ε是随机的。 ●假定三:误差项期望值为0,即 ()0,1,2i E i N ε==。 笔记: 1、当12(,,...,)N x x x 随机时,标准假定是: 12(,,...,)0,1,2,...,i N E x x x i N ε== 根据迭代期望定律有:12[(,,...,)]()i N i E E x x x E εε=,因 此,如果12(,,...,)0i N E x x x ε=成立,必定有:()0i E ε=。

多元线性回归模型

第四章 多元线性回归模型 在一元线性回归模型中,解释变量只有一个。但在实际问题中,影响因变量的变量可能不止一个,比如根据经济学理论,人们对某种商品的需求不仅受该商品市场价格的影响,而且受其它商品价格以及人们可支配收入水平的制约;影响劳动力劳动供给意愿(用劳动参与率度量)的因素不仅包括经济形势(用失业率度量),而且包括劳动实际工资;根据凯恩斯的流动性偏好理论,影响人们货币需求的因素不仅包括人们的收入水平,而且包括利率水平等。当解释变量的个数由一个扩展到两个或两个以上时,一元线性回归模型就扩展为多元线性回归模型。本章在理论分析中以二元线性回归模型为例进行。 一、预备知识 (一)相关概念 对于一个三变量总体,若由基础理论,变量21,x x 和变量y 之间存在因果关系,或21,x x 的变异可用来解释y 的变异。为检验变量21,x x 和变量y 之间因果关系是否存在、度量变量21,x x 对变量y 影响的强弱与显著性、以及利用解释变量21,x x 去预测因变量y ,引入多元回归分析这一工具。 将给定i i x x 21,条件下i y 的均值 i i i i i x x x x y E 2211021),|(βββ++= (4.1) 定义为总体回归函数(Population Regression Function,PRF )。定义),|(21i i i i x x y E y -为误差项(error term ),记为i μ,即),|(21i i i i i x x y E y -=μ,这样i i i i i x x y E y μ+=),|(21,或 i i i i x x y μβββ+++=22110 (4.2) (4.2)式称为总体回归模型或者随机总体回归函数。其中,21,x x 称为解释变量(explanatory variable )或自变量(independent variable );y 称为被解释变量(explained variable )或因变量(dependent variable );误差项μ解释了因变量的变动中不能完全被自变量所解释的部分。 在总体回归模型(4.2)中参数210,,βββ是未知的,i μ是不可观察的,统计计量分析的目标之一就是估计模型的未知参数。给定一组随机样本n i x x y i i i ,,2,1),,,(21 =,对(4.1)式进行估计,若21021,,),,|(βββi i i x x y E 的估 计量分别记为^2^1^0^,,,βββi y ,则定义(4.3)式为样本回归函数 i i i x x y 2^ 21^1^0^βββ++= (n i ,,2,1 =) (4.3) 注意,样本回归函数随着样本的不同而不同,也就是说^2^1^0,,βββ是随机变量,它们的随机性是由于i y 的随机性(同一组),(21i i x x 可能对应不同的i y )、21,x x 各

经典线性回归模型的诊断与修正

经典线性回归模型的诊断与修正下表为最近20年我国全社会固定资产投资与GDP的统计数据:1 年份国内生产总值(亿元)GDP 全社会固定资产投资(亿元)PI 1996 71813.6 22913.5 1997 79715 24941.1 1998 85195.5 28406.2 1999 90564.4 29854.7 2000 100280.1 32917.7 2001 110863.1 37213.49 2002 121717.4 43499.91 2003 137422 55566.61 2004 161840.2 70477.43 2005 187318.9 88773.61 2006 219438.5 109998.16 2007 270232.3 137323.94 2008 319515.5 172828.4 2009 349081.4 224598.77 2010 413030.3 251683.77 2011 489300.6 311485.13 2012 540367.4 374694.74 2013 595244.4 446294.09 1数据来源于国家统计局网站年度数据

1、普通最小二乘法回归结果如下: 方程初步估计为: GDP=75906.54+1.1754PI (32.351) R2=0.9822F=1046.599 DW=0.3653 2、异方差的检验与修正 首先,用图示检验法,生成残差平方和与解释变量PI的散点图如下:

从上图可以看出,残差平方和与解释变量的散点图主要分布在图形的下半部分,有随PI的变动增大的趋势,因此,模型可能存在异方差。但是否确定存在异方差,还需作进一步的验证。 G-Q检验如下: 去除序列中间约1/4的部分后,1996-2003年的OLS估计结果如下所示:

简单线性回归模型练习题

第二章 简单线性回归模型练习题 一、术语解释 1 解释变量 2 被解释变量 3 线性回归模型 4 最小二乘法 5 方差分析 6 参数估计 7 控制 8 预测 二、填空 1 在经济计量模型中引入反映( )因素影响的随机扰动项t ξ,目的在于使模型更符合( )活动。 2 在经济计量模型中引入随机扰动项的理由可以归纳为如下几条:(1)因为人的行为的( )、社会环境与自然环境的( )决定了经济变量本身的( );(2)建立模型时其他被省略的经济因素的影响都归入了( )中;(3)在模型估计时,( )与归并误差也归入随机扰动项中;(4)由于我们认识的不足,错误的设定了( )与( )之间的数学形式,例如将非线性的函数形式设定为线性的函数形式,由此产生的误差也包含在随机扰动项中了。 3 ( )是因变量离差平方和,它度量因变量的总变动。就因变量总变动的变异来源看,它由两部分因素所组成。一个是自变量,另一个是除自变量以外的其他因素。( )是拟合值的离散程度的度量。它是由自变量的变化引起的因变量的变化,或称自变量对因变量变化的贡献。( )是度量实际值与拟合值之间的差异,它是由自变量以外的其他因素所致,它又叫残差或剩余。 4 回归方程中的回归系数是自变量对因变量的( )。某自变量回归系数β的意义,指的是该自变量变化一个单位引起因变量平均变化( )个单位。 5 模型线性的含义,就变量而言,指的是回归模型中变量的( );就参数而言,指的是回归模型中的参数的( );通常线性回归模型的线性含义是就( )而言的。 6 样本观察值与回归方程理论值之间的偏差,称为( ),我们用残差估计线性模型中的( )。 三、简答题 1 在线性回归方程中,“线性”二字如何理解 2 用最小二乘法求线性回归方程系数的意义是什么 3 一元线性回归方程的基本假设条件是什么 4 方差分析方法把数据总的平方和分解成为两部分的意义是什么 5 试叙述t 检验法与相关系数检验法之间的联系。 6 应用线性回归方程控制和预测的思想。 7 线性回归方程无效的原因是什么 8 回归分析中的随机误差项i ε有什么作用它与残差项t e 有何区别

第二章(简单线性回归模型)2-5答案(可编辑修改word版)

一、判断题 2.5 回归模型预测 1. Y ?f 是对个别值Y f 的点估计。(F ) 2.预测区间的宽窄只与样本容量 n 有关。(F ) 3. Y ?f 对个别值Y f 的预测只受随机扰动项的影响。(F ) 4.一般情况下,平均值的预测区间比个别值的预测区间宽。(F ) 5.用回归模型进行预测时,预测普通情况和极端情况的精度是一样的。(F ) 二、单项选择题 1. 某一特定的 X 水平上,总体 Y 分布的离散度越大,即 2 越大,则( A )。 A. 预测区间越宽,精度越低 B .预测区间越宽,预测误差越小 C 预测区间越窄,精度越高 D .预测区间越窄,预测误差越大 2. 在缩小参数估计量的置信区间时,我们通常不采用下面的那一项措施(D )。 A. 增大样本容量 n B. 预测普通情形而非极端情形 C.提高模型的拟合优度 D.提高样本观测值的分散度 三、多项选择题 1. 计量经济预测的条件是(ABC ) A. 模型设定的关系式不变 B .所估计的参数不变 C.解释变量在预测期的取值已作出预测 D .没有对解释变量在预测期的取值进行过预测 E .无条件 2. 对被解释变量的预测可以分为(ABC ) A. 被解释变量平均值的点预测 B.被解释变量平均值的区间预测 C.被解释变量的个别值预测 D.解释变量预测期取值的预测 四、简答题 1. 为什么要对被解释变量的平均值以及个别值进行区间预测? 答:由于抽样波动的存在,用样本估计出的被解释变量的平均值Y ?f 与总体真实平均值 E (Y f X f 之间存在误差,并不总是相等。而用Y ?f 对个别值Y f 进行预测时,除了上述 提到的误差,还受随机扰动项的影响,使得总体真实平均值 E (Y f X f 并不等于个别值 Y f 。 一般而言,个别值的预测区间比平均值的预测区间更宽。 2. 分别写出 E ( Y f X f 和Y f 的置信度为1 -的预测区间。 ? 1 (X - X )2 ? ? 1 (X - X )2 ? 答: E ( Y X : Y ? ± t ? + f ? ; Y : Y ? ± t ? 1 + + f ? 。 f f f n ? 2 x 2 ? i ? f f n ? 2 x 2 ? i ? ∑ ∑

第二讲 面板数据线性回归模型

第二讲 面板数据线性回归模型估计、检验和应用 第一节 单因素误差面板数据线性回归模型 对于面板数据y i 和X i ,称 it it it y αε′=++X βit i it u εξ=+ 1,,; 1,,i N t T =="" 为单因素误差面板数据线性回归模型,其中,i ξ表示不可观测的个体特殊效应,it u 表示剩余的随机扰动。 案例:Grunfeld(1958)建立了下面的投资方程: 12it it it it I F C αββε=+++ 这里,I it 表示对第i 个企业在t 年的实际总投资,F it 表示企业的实际价值(即公开出售的股份),C it 表示资本存量的实际价值。案例中的数据是来源于10个大型的美国制造业公司1935-1954共20年的面板数据。 在EViews6中设定面板数据(GRUNFELD.wf1) Eviews6 中建立面板数据 EViews 中建立单因素固定效应模型

1.1 混合回归模型 1 面板数据混合回归模型 假设1 ε ~ N (0, σ2I NT ) 对于面板数据y i 和X i ,无约束的线性回归模型是 y i = Z i δi + εi i =1, 2, … , N (4.1) 其中' i y = ( y i 1, … , y iT ),Z i = [ ιT , X i ]并且X i 是T×K 的,' i δ是1×(K +1)的,εi 是T×1的。 注意:各个体的回归系数δi 是不同的。 如果面板数据可混合,则得到有约束模型 y = Z δ + ε (4.2) 其中Z ′ = (' 1Z ,' 2Z , … ,'N Z ),u ′ = ('1ε,'2ε, … ,' N ε)。 2 混合回归模型的估计 当满足可混合回归假设时, ()1''?Z Z Z Y ?=δ 在假设1下,对于Grunfeld 数据,基于EViews6建立的混合回归模型 3 面板数据的可混合性检验 假设检验原理:基于OLS/ML 估计,对约束条件的检验。 (1) 面板数据可混合的检验 推断面板数据可混合的零假设是: 1 H :对于所有的i 都有δi = δ. 检验约束条件的统计量是Chow 检验的F 统计量

线性回归模型

线性回归模型 1.回归分析 回归分析研究的主要对象是客观事物变量之间的统计关系,它是建立在对客观事物进行大量试验和观察的基础上,用来寻找隐藏在那些看上去是不确定的现象中的统计规律性的方法。回归分析方法是通过建立模型研究变量间相互关系的密切程度、结构状态及进行模型预测的一种有效工具。 2.回归模型的一般形式 如果变量x_1,x_2,…,x_p与随机变量y之间存在着相关关系,通常就意味着每当x_1,x_2,…,x_p取定值后,y便有相应的概率分布与之对应。随机变量y与相关变量x_1,x_2,…,x_p之间的概率模型为 y = f(x_1, x_2,…,x_p) + ε(1) f(x_1, x_2,…,x_p)为变量x_1,x_2,…,x_p的确定性关系,ε为随机误差项。由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。 当概率模型(1)式中回归函数为线性函数时,即有 y = beta_0 + beta_1*x_1 + beta_2*x_2 + …+ beta_p*x_p +ε (2) 其中,beta_0,…,beta_p为未知参数,常称它们为回归系数。当变量x个数为1时,为简单线性回归模型,当变量x个数大于1时,为多元线性回归模型。 3.回归建模的过程 在实际问题的回归分析中,模型的建立和分析有几个重要的阶段,以经济模型的建立为例:

(1)根据研究的目的设置指标变量 回归分析模型主要是揭示事物间相关变量的数量关系。首先要根据所研究问题的目的设置因变量y,然后再选取与y有关的一些变量作为自变量。通常情况下,我们希望因变量与自变量之间具有因果关系。尤其是在研究某种经济活动或经济现象时,必须根据具体的经济现象的研究目的,利用经济学理论,从定性角度来确定某种经济问题中各因素之间的因果关系。(2)收集、整理统计数据 回归模型的建立是基于回归变量的样本统计数据。当确定好回归模型的变量之后,就要对这些变量收集、整理统计数据。数据的收集是建立经济问题回归模型的重要一环,是一项基础性工作,样本数据的质量如何,对回归模型的水平有至关重要的影响。 (3)确定理论回归模型的数学形式 当收集到所设置的变量的数据之后,就要确定适当的数学形式来描述这些变量之间的关系。绘制变量y_i与x_i(i = 1,2,…,n)的样本散点图是选择数学模型形式的重要手段。一般我们把(x_i,y_i)所对应的点在坐标系上画出来,观察散点图的分布状况。如果n个样本点大致分布在一条直线的周围,可考虑用线性回归模型去拟合这条直线。 (4)模型参数的估计 回归理论模型确定之后,利用收集、整理的样本数据对模型的未知参数给出估计是回归分析的重要内容。未知参数的估计方法最常用的是普通最小二乘法。普通最小二乘法通过最小化模型的残差平方和而得到参数的估计值。即 Min RSS = ∑(y_i – hat(y_i))^2 = 其中,hat(y_i)为因变量估计值,hat(beta_i)为参数估计值。 (5)模型的检验与修改 当模型的未知参数估计出来后,就初步建立了一个回归模型。建立回归模型的目的是应用它来研究经济问题,但如果直接用这个模型去做预测、控制和分析,是不够慎重的。因为这个模型是否真正揭示了被解释变量与解释变量之间的关系,必须通过对模型的检验才能决定。统计检验通常是对回归方程的显著性检验,以及回归系数的显著性检验,还有拟合优度的检验,随机误差项的序列相关检验,异方差性检验,解释变量的多重共线性检验等。 如果一个回归模型没有通过某种统计检验,或者通过了统计检验而没有合理的经济意义,就需要对回归模型进行修改。 (6)回归模型的运用 当一个经济问题的回归模型通过了各种统计检验,且具有合理的经济意义时,就可以运用这个模型来进一步研究经济问题。例如,经济变量的因素分析。应用回归模型对经济变量之间的关系作出了度量,从模型的回归系数可发现经济变量的结构性关系,给出相关评价的一些量化依据。 在回归模型的运用中,应将定性分析和定量分析有机结合。这是因为数理统计方法只是从事物的数量表面去研究问题,不涉及事物的规定性。单纯的表面上的数量关系是否反映事物的本质这本质究竟如何必须依靠专门学科的研究才能下定论。 Lasso 在多元线性回归中,当变量x_1,x_2,…,x_3之间有较强的线性相关性,即解释变量间出现严重的多重共线性。这种情况下,用普通最小二乘法估计模型参数,往往参数估计方差太大,使普通最小二乘的效果变得很不理想。为了解决这一问题,可以采用子集选择、压缩估计或降维法,Lasso即为压缩估计的一种。Lasso可以将一些增加了模型复杂性但与模型无关的

多元线性回归模型习题及答案

、单项选择题 1. 在由n 30的一组样本估计的、包含 3个解释变量的线 性回归模型中,计算得多重决定 系数为0.8500,则调整后的多重决定系数为( D ) A. 0.8603 B. 0.8389 C. 0.8655 D.0.8327 2. 下列样本模型中,哪一个模型通常是无效的( B ) C I A. C i (消费)=500+0.8 打(收入) B. Qd (商品需求)=10+0.8 I i (收入)+0.9 P (价格) 3.用一组有30个观测值的样本估计模型 y t b o b i^t dX 2t U t 后,在0.05的显著性水 平上对b1的显著性作 t 检验,则 b 1 显著地不等于零的条件是其统计量 t 大于等于( C ) A 10.05 (30) B t 0.025(28) C t 0.025 (27 ) D F 0.025 (1,28) 4.模型 ln y t lnb 0 b 1 In x t U t 中,bl 的实际含义是(B ) A. x 关于y 的弹性 B. y 关于x 的弹性 C. x 关于y 的边际倾向 D. y 关于X 的边际倾向 5、 在多元线性回归模型中,若某个解释变量对其余解释变量的判定系数接近于1,则表明 模 型 中 存 在 (C ) A.异方差性 B.序列相关 C.多重共线性 D . 高 拟合 优 度 6. 线性回归模型 y t b ) b 1x 1t b 2x 2t ........ b k x kt u t 中,检验 H °:b t 0(i 0,1,2,...k ) 时,所用的统计量 A. t (n-k+1) B.t (n-k-2) 多元线性回归模型 C. D. Q i (商品供给)=20+0.75 P (价格) (产出量) =0.65 L i (劳动) K i 0.4 (资本) 服从(C )

(完整版)第二章(简单线性回归模型)2-4答案

2.4 回归系数的区间估计和假设检验 一、判断题 1.如果零假设H 0:B 2=0,在显著性水平5%下不被拒绝,则认为B 2一定是0。 (F ) 2.k β的置信度为()α-1的置信区间指真实参数落入该区间的概率是()α-1。(F) 3.假设检验为单侧检验还是双侧检验本质上取决于备择假设的形式。(F ) 4.回归系数的显著性检验是用来检验解释变量对被解释变量有无显著解释能力的检验。(T ) 二、单项选择题 1.对回归模型i i 10i u X Y ++=ββ进行检验时,通常假定i u 服从( C )。 A .() 2 i 0N σ, B .()2n t - C .( )2 0N σ , D .()n t 2.用一组有30个观测值的样本估计模型i i 10i u X Y ++=ββ,在0.05的显著性水平下对1β的显著性作检验,则1β显著地不等于零的条件是其统计量大于( D )。 A .()30t 050. B .()30t 0250.) C .()28t 050. D .()28t 0250. 3.回归模型i i i u X Y ++=10ββ中,关于检验010=β:H 所用的统计量)?(?1 11βββVar -,下 列说法正确的是( D )。 A .服从)(22-n χ B .服从)(1-n t C .服从) (12-n χ D .服从)(2-n t 4.用一组有30个观测值的样本估计模型后,在0.05的显著性水平上对的显著性作检验,则显著地不等于零的条件是其统计量大于等于( C ) A. B. C. D. 三、简答题 1.当α给定后,回归系数2β的置信区间是什么样的? 答:总体方差2 σ已知时,置信区间为??? ? ??? ? +-∑∑2i 2 2i 2x z x z σ βσ β?,?;总体方差2σ未知则使用2 n e 2 i 2 -=∑σ ?估计2 σ:①样本容量充分大时,统计量仍服从正态,则置信区间为 t t 01122t t t t y b b x b x u =+++1b t 1b t )30(05.0t )28(025.0t )27(025.0t )28,1(025.0F

第二章(简单线性回归模型)2-3答案

拟合优度的度量 一、判断题 1.当 ()∑-2i y y 确定时,()∑-2 i y y ?越小,表明模型的拟合优度越好。(F ) 2.可以证明,可决系数2R 高意味着每个回归系数都是可信任的。(F ) 3.可决系数2R 的大小不受到回归模型中所包含的解释变量个数的影响。(F ) 4.任何两个计量经济模型的2R 都是可以比较的。(F ) 5.拟合优度2R 的值越大,说明样本回归模型对数据的拟合程度越高。( T ) 6.结构分析是2R 高就足够了,作预测分析时仅要求可决系数高还不够。( F ) 7.通过2R 的高低可以进行显著性判断。(F ) 8.2R 是非随机变量。(F ) 二、单项选择题 1.已知某一直线回归方程的可决系数为,则解释变量与被解释变量间的线性相关系数为( B )。 A .± B .± C .± D .± 2.可决系数2R 的取值范围是( C )。 A .2R ≤-1 B .2R ≥1 C .0≤2R ≤1 D .-1≤2R ≤1 3.下列说法中正确的是:( D ) A 如果模型的2R 很高,我们可以认为此模型的质量较好 B 如果模型的2R 较低,我们可以认为此模型的质量较差 C 如果某一参数不能通过显著性检验,我们应该剔除该解释变量 D 如果某一参数不能通过显著性检验,我们不应该随便剔除该解释变量 三、多项选择题 1.反映回归直线拟合优度的指标有( ACDE )。 A .相关系数 B .回归系数 C .样本可决系数 D .回归方程的标准差 E .剩余变差(或残差平方和) 2.对于样本回归直线i 01i ???Y X ββ+=,回归变差可以表示为( ABCDE )。 A .2 2i i i i ?Y Y -Y Y ∑ ∑  (-) (-) B .2 2 1 i i ?X X β∑ (-)

相关文档
相关文档 最新文档