El Modelo Lineal ´ Salmer on ´ Rom´ Roman ´ Departamento de M´ Metodos Cuantitativos para la Econom´ıa ıa y la Empresa ´ Facultad en Ciencias Econ´ Economicas y Empresariales http://fccee.ugr.es/
[email protected]
´ del Modelo Lineal 1. Especificacion Estudio de una variable dependiente a partir de k variables variables independientes (con constante) constante) a partir de n observaciones. E [un×1] = 0n×1 ( ya que E [ut] = 0 t ) V ar( ar(un×1) = σ 2 Id n×n V ar( ar(ut) = σ 2 t, C ov ov (ut, us) = 0, t = s yn×1 = X = X n×k β k×1 + u + un×1 X no no aleatoria con rg (X ) = k X i, i = 1, . . . , k , linealmente independientes X y y u incorrelados Y 1 1 X 12 X 13 X 1k β 1 u1 Y 2 1 X 22 X 23 X 2k β 2 u2 y = , X i X X , β , u . = = = (i ( ) = = = 2 k .. .. . . . .. ..
·
Y n
·
→ →
· · · · · · 1 X n2 X n3 · · ·
X nk
∀
∀
β k
un
2. Estimacion ´ del Modelo Lineal ´ de las cantidades constantes del modelo. Estimaci on −1 X ty estimador por MCO de β β β = = X tX a β es T Gauss-Markov: β es un estimador lineal, insesgado y ´optimo optimo (m´ınima ınima varianza) −1 V ar( ar(β β ) = σ 2 X tX n
´ MCO: i t e = Consecuencias estimaci on
·
et = 0, X t e = 0, Y = Y Y , y t e = 0.
· · −
·
t=1
t σ 2 = ne ek estimador insesgado de σ 2 (ete es la SCR) t
t
≤ = SC RR. ≤ etReR = SC σR2 = ne−ke+q . (e ( e e −e e)/q : R · β = = r si e e/( > F q,n−k (1 − α). Rechazamos H 0 : R e/(n−k)
t R R
t R R t
∀
···
· − − −
Consecuencias: 2 RR R 2. SC R = e = ete
β X y σ2 = y y n β k
1
X tX
ar(β β ) = σ 2 ⇒ V ar(
t
6. Multicolinealidad El problema de multicolinealidad multicolinealidad consiste en la existencia de relaciones lineales entre dos o ´ variables independientes del modelo lineal uniecuacional multiple. mas Multicolinealidad ´ lineal es perfecta. Multicolinealidad perfecta o exacta: exacta: la relaci on perfecta. rg (X ) < k . Entonces La matriz X no no es de rango completo por columnas, esto es, rg( ´ unica β . es imposible obtener una soluci on u´ nica para β ´ lineal es aproximada. Multicolinealidad aproximada: la relaci on ´ ´ No se incumplir a´ la hipotesis basica de que la matriz X sea completa por colum´ ( X tX )−1 nas. Sin embargo, el determinante de X tX ser a´ muy proximo a cero, por lo que (X ´ ´ tender a a tener valores altos y se obtendr an estimaciones inestables. Causas: ´ causal entre variables explicativas del modelo. relaci on escasa variabilidad variabilidad en las observaciones de las variables variables independientes. independientes. reducido tama no ˜ de la muestra. Soluciones: ˜ muestral estrayendo la informaci on ´ m axima ´ mejora del dise no de la variables observadas. ´ de las variables que se sospechan son causantes de la multicolineaeliminaci on lidad. ˜ de la muestra. en caso de disponer de pocas observaciones, observaciones, aumentar el tama no
´ del Modelo Lineal 3. Validacion
7. Heteroscedasticidad
´ realizada es o no v alida. ´ Herramientas Herramientas para determinar si la estimaci on Coeficiente de determinaci on ´ ( R2): porcentaje de variabilidad explicada por el ajuste ´ realizado del modelo. (estimaci´ (estimacion)
t
t
β X y−nY CE = 1 − SCR ⇒ R2 = β R2 = SSCT SCT yty−nY
2
2
t
β tX ty = 1 − y yt −β y y−nY 2
Siempre que el modelo tenga constante: 0 ≤ R2 ≤ 1. ´ proximo ´ Cuanto mas a 1 mejor ser a´ el ajuste. ´ sera´ significativo (es decir, validar a´ el modelo) El coeficiente de determinaci on
siempre que sea superior a la siguiente cota:
k 1 n k F k 1,n k (1 α) . 1 + kn k1 F k 1,n k (1 α) 2
− −
− −
− · · · · ·
− · − · −·
· −
·
− ·
N β, σ 2
1
X tX
Rβ β
(n k ) σ 2 σ2
χn2 k ´ Contrastes de hip otesis:
Rβ β
: Rβ = = r si Rβ β Rechazo H 0 : Rβ
t
Rβ
Rβ
r
−1
R (X tX ) Rt q σ2
t
−1 Rt
R (X tX )
t
1
X tX
R
q σ
βi bi : β i = bi si σβ Rechazo H 0 : β wi > t n k 1 ´ Analisis de la varianza (ANOVA):
Y t∗ =
1
Rβ β
Rβ β
Rβ
F q,n k
r > F q,n k (1
α , w elemento (i, ( i, i) de X tX i 2
SCE
R2
n k
n k
2
−
> F k−1,n−k (1
α).
1
.
− α).
Para Rβ : Rβ β − r t · R · X tX −1 · Rt · Rβ β − r ≤ q · σ2 · F q,n−k(1 − α). Para β i: β βi ± tn−k 1 − α2 · σ · √ wi. ( n−k) ·σ , (n−k) ·σ = SCR , SCR . Para σ 2: χ (n χ − (1− ) χ − ( ) − (1− ) χ − ( ) 2
2
n k
α 2
2
2
n k
α
2
n k
2
α
2
n k
2
α 2
4. Explotacion ´ del Modelo Lineal ´ recogida en x 0? ¿Qu´ ¿Que´ ocurre para nueva informaci informaci on Predictor puntual: p 0 = x t0 β β . lineal, insesgado ( E [ p p0] = x t0 β ) y optimo ´ (m´ (m´ınima ınima varianza). varianza). Predictor por intervalo:
·
→
·
· ± − − · · · − · · ± − − · ·
Para el valor esperado: xt0 β β tn k 1 Para la permanencia β permanencia estructural: estructural: x t0 β
α 2
σ
tn k 1
σ
1 + x + xt0 (X tX )−1 x0.
·
·
´ con informacion ´ a priori 5. Estimacion
·
β βR = β β ++ X t · X −1 · Rt · R · X t · X −1 · Rt −1 · r − R · β β . → insesgado (siempre que r = r = R · β ) y ´optimo β R ≤ V ar optimo V ar β
El Modelo Li neal
X it , √ wt
i = 1, . . . ,k ,k,
t = 1, . . . , n .
´ 8. Autocorrelacion ´ es decir, la covarianza de la perturbaCuando se incumple el supuesto de incorrelaci on, ´ aleatoria es no nula para dos instantes de tiempo distintos ( E [ui u j ] = 0, i = j o, ci´ cion ´ 0 , k > 0 ), se dice que hay autocorrelaci on. equivalentemente, E [ut ut−k ] = 0, Este problema problema aparece especialmente especialmente cuando se disponen disponen de datos de series temporales. ´ en un modelo lineal es, como es La consecuencia de la presencia de autocorrelaci on ´ lineales e insesgados no ser an ´ opti´ sabido, que los estimadores obtenidos aunque ser an mos. ´ viene marcada por un proceso auto Suponemos que la estructura de autocorrelaci on rregresivo de orden 1, esto es: ut = ρ = ρ ut−1 + v + v t.
·
· ∀
∀
·
´ Procedimientos de Detecci on: ´ Grafico temporal de los residuos. residuos. Graficos ´ de dispersi on ´ de los residuos frente alg un ´ retardo suyo. ´ (ACF) y autocorrelaci ´ parcial (ACP). Funciones de autocorrelaci autocorrelaci on autocorrelaci on Contrastes de Durbin-Watson y de Ljung-Box. ´ bajo autocorrelaci ´ Prais-Winsten ˜ Estimacion autocorrelaci on: Prais-Winsten (muestras peque nas). Estimar el modelo original por MCO. Utilizar los residuos del ajuste anterior para estimar ρ . Transformar ransformar los datos seg´un: un:
− 1
Y t
ρ2 Y 1 t = 1 , ρ Y t−1 t > 1
− ·
·
∗ = X it
−
1 ρ2 X i1 t = 1 , X it ρ X it−1 t > 1
− ·
·
i = 1, . . . , k. con i = Estimar el modelo transformado por MCO volviendo volviendo al primer paso. Repetir este proceso hasta que la diferencia entre dos estimaciones consecutivas de ρ sea menor que un valor prefijado (de orden 10 −3 normalmente). ´ bajo autocorrelaci ´ Cochrane-Orcutt Estimacion autocorrelaci on: Cochrane-Orcutt (muestras grandes). grandes). Cuando el n´umero umero de observaciones es suficientemente grande se puede des´ (perdi endola) ´ preciar la primera observaci on transformando transformando los datos seg un ´
´ = r (q restricciones)? ¿C´ ¿Como estimar β sabiendo que verifica que R β = restricciones)? M´ M´ınimos ınimos Cuadrados Restringidos
∗ = X it
Estimar el modelo transformado por MCO.
Y t∗ =
xt0 (X tX ) 1 x0. α 2
√ Y wt t ,
−1
Rβ β
2
− −1
2 χq
Rβ
−1
k−1 Rechazo H 0 : β : β 2 = β 3 = · · · = β k = 0 si SCR = k−−1 1 R
Intervalos de confianza: confianza:
Rt
· ∀
∼ ∼ · − → − · · − · − · − ∼ ↓ · · − · ∼ · − → − · · − ∼ − − · · · · · − − − − √ − − − β β
Cuando se incumple el supuesto de homocedasticidad, homocedasticidad, es decir, la varianza no es constante ´ ( E [ut2] = σ t2 = σ 2 wt, t), se dice que hay heteroscedastisino que var´ıa con l a observaci on cidad. ´ cru Este problema aparece especialmente cuando se disponen de datos de secci on zada. La consecuencia de la presencia de heteroscedasticidad en un modelo lineal es que ´ lineales e insesgados no ser an ´ ´ ´optimos. los estimadores obtenidos aunque ser an an optimos. Procedimientos de Detecci on: ´ ´ Grafico de los residuos. residuos. ´ ´ de los residuos frente a la variable que se sospecha pro Gr aficos de dispersi on voca la heteroscedasticidad. ˜ y heteroscedasTests de Glesjer y de Goldfeld-Quandt (para muestras peque nas heteroscedasticidad provocada por una variable). Tests de White y de Breusch-Pagan (muestras grandes y no se especifica la variable que provoca la heteroscedasticidad). Estimacion ´ bajo hetero scedasticidad: M´ınimos ınimos Cuadrados Ponderados. Transformar ransformar los datos seg´un: un:
· − − − − · − − − −
−1 . Coeficiente de determinaci on ´ corregido: R = 1 (1 R2) nn− k ´ de modelos: Seleccion modelos: n n (1 + ln(2 π ) ln( ln(n)) ln(SC ln(SC R) L = 2 2 AIC = AIC = 2 L + 2 k. BI C = = 2 L + k ln(n ln(n). HQC = HQC = 2 L + 2 k ln(ln(n ln(ln( n)) . Distribuciones:
t
β β
.
Y t∗ = Y t
− ρ · Y t−1,
∗ = X X it = X it
i = 1, . . . , k. para t > 1 e i = ´ Proceso iterativo an alogo al anterior.
− ρ · X it−1,
Econometr´ıa