MCO - Estimación de mínimos cuadrados ordinarios Gretl PDF

Title MCO - Estimación de mínimos cuadrados ordinarios Gretl
Course Econometria
Institution Universidade de Vigo
Pages 4
File Size 213.3 KB
File Type PDF
Total Downloads 97
Total Views 150

Summary

Estimación de mínimos cuadrados ordinarios Gretl...


Description

ESTIMACIÓN DE MÍNIMOS CUADRADOS ORDINARIOS (MCO) (Guía de Introducción a la Econometría utilizando Gretl. Capítulo 3. MCO: Modelo de Regresión Lineal Clásico páginas 64-117)

ols Y const X 1 X2 … X K --opciones Salida estándar del comando ols: ? ols Y const X1 X2 … XK Modelo nº: MCO, usando las observaciones nº observación inicial – nº observación final dependiente: Y ($depvar)

(n = nº ($T) Variable

Coeficiente Desv. Típica Estadístico t Valor p ---------------------------------------------------------------const

b0

sb

t0

PVt 0

X1

b1

sb

t1

PVt 1

* **

0 1

X2

b2

sb

t2

PVt 2

...

...

...

...

...

XK

bK

sbk

tK

PVt K

2

***

Media de la vble. dep.

Y

D.T. de la vble. dep.

Sy

Suma de cuad. residuos

SCE ($ess) R 2 ($rsq) F2 ($Fstat) L ($lnl) SC ($hic)

D.T. de la regresión

S ($sigma) R2 PVF2 AIC ($aic) HQ ($hqc)

R-cuadrado F(gln, gld) Log-verosimilitud Criterio de Schwarz

R-cuadrado corregido Valor p (de F) Criterio de Akaike Crit. de Hannan-Quinn

Sin considerar la constante, el valor p más alto fue el de la variable Xi ( )

Opciones del comando ols: --vcv  Imprime la matriz de varianzas-covarianzas estimada de los estimadores --simple-print  No imprime los estadísticos auxiliares --quiet  Suprime la impresión de resultados --anova  Imprime la tabla ANOVA --no-df-corr  Utiliza el tamaño muestral en lugar de los grados de libertad para el cálculo de algunos estadísticos 1

Variables temporales del comando ols: $ess  Suma de Cuadrados de Errores ( SCE ) $T  tamaño muestral ( T ) $rsq  coeficiente de determinación ( R 2 ) $df  grados de libertad (DF) $ncoeff  número de parámetros $lnl  logaritmo de la función de verosimilitud $aic  criterio de información de Akaike ( AIC ) $bic  criterio bayesiano de Schwarz ( SC ) $hqc  criterio de Hannan y Quinn ( HQ ) $trsq  T * R 2 $Fstat  estadístico F (F 2 en modelos formulados con ordenada en el origen y F 1 en modelos sin ordenada) $uhat  serie de residuos o errores de estimación ( e ) $yhat  serie de valores estimados del regresando ( Yˆ ) $coeff  vector de estimadores de los parámetros ( b ) $sigma  estimador de la desviación estándar de la perturbación ( S ) $vcv  matriz de varianzas-covarianzas estimada de los estimadores ( Vˆ(b) ) $stderr  vector de desviaciones típicas estimadas de los estimadores ( S(b) ) $xlist  lista de variable/s independiente/s $ylist  Lista variable/s dependiente/s Salida estándar de la opción --anova del comando ols: ? ols Y const X1 X2 … XK --anova ...

...

...

...

...

Análisis de Varianza: Suma de cuadrados Regresión Residuo Total

SCR SCE ($ess) SCT

gl

K ($coeff-1) T - K - 1 ($df) T - 1 ($T)

Media de cuadrados

SCR/K SCE/(T - K - 1) SCT/(T - 1)

R 2 = SCR / SCT ($rsq) SCR/K F(gln, gld) = = F2 ($Fstat) [Valor p PVF2 ] SCE /(T − K − 1)

2

Algunas expresiones: Vector de estimadores (coeficientes de regresión parcial estimados)  b = (X ′X )-1 X ′Y (el coeficiente de regresión parcial estimado bi mide el cambio en la variable dependiente producido por un cambio unitario en la variable independiente a la que acompaña manteniendo constantes las demás variables) S (el coeficiente beta estimado o coeficiente estandarizado estimado βˆi* = bi X i mide el cambio en la variable dependiente (en unidades SY de desviación estándar) producido por un cambio unitario en la variable independiente a la que acompaña (en unidades de desviación estándar) manteniendo constantes las demás variables)

(la elasticidad en media estimada Eˆi = bi X i mide el cambio porcentual en la variable dependiente producido por un cambio porcentual en Y la variable independiente a la que acompaña, manteniendo constantes las demás variables)

Regresando estimado  Yˆ = Xb Residuo o error  e = Y - Yˆ Perturbación  ε = Y - E(Y) Suma de Cuadrados de los Errores  SCE = Y ′Y - b ′X ′Y Suma de Cuadrados de la Regresión  SCR = b′ X ′Y - T Y 2 Suma de Cuadrados Totales  SCT = Y ' Y − T Y 2

3

Estimador de la varianza de la perturbación  S 2 =

SCE T - K -1

 -1 Matriz de Varianzas-Covarianzas estimada de los estimadores  V(b) = S 2 (X ′X )

Coeficiente de determinación  R2 =

SCR SCE =1 − SCT SCT

(El coeficiente de determinación además de proporcionar información sobre la bondad del ajuste, se interpreta como el porcentaje de

variaciones del regresando que vienen explicadas por las variaciones de las variables explicativas). SCE T −1 (1 − R 2 ) Coeficiente de determinación corregido o ajustado  R2 = 1 - T - K - 1 = 1− SCT T − K −1 T -1 Coeficiente de determinación bruto  R2RAW = 1 -

SCE ∑ Y2t

(

)

2

T ˆ ˆ   ∑ Yt − Y (Yt − Y ) = 2 t 1  Coeficiente de determinación entre observados y estimados  r = T 2 T 2 ∑ Yˆ − Yˆ ∑(Y − Y )

(

t= 1

t

)

t

t =1

4...


Similar Free PDFs