Fundamentos de Econometría: Regresión y Propiedades de Estimadores

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 5,04 KB

Conceptos Clave en Econometría: Preguntas y Respuestas

¿Por qué se dice que los estimadores MCO son eficientes?

V:

Debido a que los estimadores MCO tienen la varianza mínima dentro de la clase de todos los estimadores lineales insesgados.

Usando un modelo de regresión, mientras más nos alejamos del valor medio de la variable X para realizar una predicción de la media del valor de Y, ¿más impreciso será el pronóstico?

F:

En la medida que nos alejamos del valor medio de X, más alta es la varianza y, con ello, más incierto es el pronóstico, pero no necesariamente más malo.

La ventaja de estimar un modelo en logaritmo es que permite determinar directamente los parámetros como términos porcentuales.

V:

En el modelo log-log, las pendientes corresponden a las elasticidades, ya que es un modelo lineal. Además, el operador logaritmo atenúa la varianza de la serie.

Cuando se incorpora el supuesto de normalidad de los errores poblacionales, los estimadores MCO son MELI.

V:

Al incorporar el supuesto de normalidad de los errores (uᵢ), los estimadores MCO son los mejores estimadores insesgados (MELI), pudiendo ser lineales o no.

El término de error muestral en un modelo econométrico surge por la discrepancia entre la variable endógena observada y la variable endógena estimada.

V:

uᵢ = y - ŷ.

La normalidad de los errores permite probar hipótesis acerca de los coeficientes del modelo econométrico.

V:

Si el error es normal, también lo será la distribución de la variable endógena y, con ello, la de los coeficientes.

El análisis de regresión entre las variables X e Y implica que X causa a Y.

F:

El Análisis de Regresión (AR) no implica causalidad entre las variables, ni X sobre Y, ni Y sobre X.

El análisis de regresión permite determinar con cierta precisión los valores individuales de la variable dependiente a partir de los valores de la variable independiente.

F:

El Análisis de Regresión (AR) permite establecer la relación entre las variables explicativas (X) sobre el valor promedio de la variable dependiente (Y).

En un modelo de regresión múltiple, la significancia global considera como hipótesis nula que todos los parámetros son simultáneamente iguales a 0.

F:

Solo considera como hipótesis que los parámetros de las variables explicativas son iguales a 0, no así el intercepto.

La inferencia estadística se invalida si las variables explicativas presentan una fuerte asociación lineal entre ellas.

F:

La fuerte asociación lineal de las X's (multicolinealidad) aumenta la varianza de los β estimados, lo que incrementa los intervalos de confianza de los parámetros de hipótesis, haciendo más probable el no rechazo de H₀, pero no invalida la inferencia misma.

Cuando hay presencia de autocorrelación, los estimadores MCO son sesgados, lo mismo que ineficientes.

F:

En presencia de autocorrelación, los estimadores MCO siguen siendo insesgados, pero ya no tienen varianza mínima; es decir, ya no son MELI (Mejores Estimadores Lineales Insesgados), lo que implica que ya no son eficientes.

La transformación de primera diferencia para eliminar autocorrelación supone que el coeficiente de autocorrelación ρ es -1.

F:

Para eliminar la autocorrelación, la transformación de primera diferencia supone que el coeficiente de autocorrelación (ρ) es +1, es decir, que las perturbaciones están correlacionadas positivamente.

En el esquema AR(1), una prueba de hipótesis ρ=1 puede hacerse modificando el estadístico g de Berenblutt-Webb, lo mismo que por medio del estadístico d de Durbin-Watson.

F:

En la prueba d de Durbin-Watson, la hipótesis nula es que ρ=0. En cambio, en la prueba g de Berenblutt-Webb, se considera la hipótesis nula de ρ=1. Sin embargo, para probar la significancia del estadístico g, se pueden utilizar las tablas de Durbin-Watson.

Entradas relacionadas: