Importancia del test de Normalidad en pruebas de hipótesis

Enviado por Chuletator online y clasificado en Francés

Escrito el en español con un tamaño de 6,61 KB

El test de Normalidad permite determinar si las pruebas de hipótesis son correctas. VERDADERO. Para llevar a cabo pruebas de hipótesis se requiere que el error tenga distribución normal para que los estadísticos de las pruebas de hipótesis tengan distribución t o F. Este supuesto es relevante para muestras pequeñas, para muestras muy grandes, no es tan relevante ya que según el teorema central del límite las distribuciones se aproximarán a la distribución normal.

Variable explicativa en logaritmo natural

VERDADERO. Cuando tanto la variable dependiente como la variable explicativa están en logaritmo natural, el coeficiente de la variable explicativa se interpreta como elasticidad.

Solución incierta

Si la variable x3 tiene sustento teórico para ser una variable explicativa, antes de eliminarla se debería comprobar que se cumplen todos los supuestos (homocedasticidad, no autocorrelación, multicolinealidad, no omisión de variables relevantes relacionadas con x3,...) o que la variable esté correctamente especificada (deba ir en logaritmos, o hay que incluirla al cuadrado,...).

Contraste de Breusch-Pagan

FALSO. La hipótesis nula del contraste de Breusch-Pagan es que se cumple el supuesto de homocedasticidad en el error. Dado que el p−valor = 0,015 < 0,05 = α se rechaza la hipótesis nula y habría evidencias de heterocedasticidad en el error, con lo que las estimaciones MCO con homocedasticidad no son válidas.

Problema con variables numéricas

FALSO. No se puede incluir una variable numérica de 1 a 5 porque los cambios no son graduales ni aumentan en la misma proporción. Por lo tanto, habría que incluir variables binarias para diferenciar entre las 5 alternativas dadas.

Autocorrelación y heterocedasticidad

El enunciado es incierto porque que haya autocorrelación en el error no tiene por qué implicar que el error sea también heterocedástico. Es decir, el error puede estar autocorrelacionado y ser homocedástico o estar autocorrelacionado y ser heterocedástico.

El enunciado es cierto, puesto que si hay variables explicativas con alto nivel de correlación entre ellas estamos ante un problema de multicolinealidad. Esto implica mayores errores estándar debido a la relación entre ellas y, por tanto, el valor del estadístico t será menor y será más difícil detectar las variables que son estadísticamente significativas.

Propiedad de insesgadez del estimador MCO

FALSO. La propiedad de insesgadez del estimador MCO no requiere que los errores poblacionales sigan una distribución normal. El supuesto clave para que el estimador MCO sea insesgado es que E(u|x) = 0.

Interpretación de coeficientes estimados

Interprete los coeficientes estimados de las variables explicativas nf indesemana y D1. Comente sobre su significatividad (α = 5 %). Coeficiente de nf indesemana=0.0081495: si el número de días de fin de semana aumenta en 1 entonces el porcentaje de accidentes fatales aumenta en un 0.0081 % con respecto a su tendencia y manteniendo constante el resto de variables explicativas. Dado que su p-valor=0.342 > 0.05, no hay evidencias de que el número de días de fin de semana sea relevante para explicar el porcentaje de accidentes fatales. Coeficiente de D1=0.0820838: después de la aplicación de la ley sobre el límite de velocidad el número de accidentes fatales incrementó un 0.082 % con respecto a su tendencia más que en el periodo anterior de su aplicación, manteniendo constante el resto de variables explicativas. Dado que su p-valor=0.011 < 0.05, hay evidencias de que el porcentaje de accidentes fatales cambió tras la aplicación de la ley de límite de velocidad.

Contraste de Durbin-Watson

El contraste de Durbin-Watson se utiliza para determinar la presencia de autocorrelación de primer orden en el error: ut = ρut−1 + et Realicemos el contraste de autocorrelación de primer orden positiva: H0 : ρ = 0 H1 : ρ > 0 El valor del estadístico en la muestra es d = 0,8090167. Los valores críticos para α = 5 %, N = 108 y k = 5 son aproximadamente: dL = 1,57 y dU = 1,78. Dado que d = 0,8090167 < 1,57 = dL se rechaza la hipótesis nula para α = 5 % y concluimos que hay evidencias de autocorrelación positiva en el error. Esto implica que los errores estándar no son válidos, e incluso las estimaciones de los coeficientes podrían ser sesgadas. Para corregir este problema, podríamos incluir rezagos tanto de las variables explicativas como de la variable dependiente.

Contraste de Breusch-Pagan

El contrate de Breusch-Pagan se utiliza para determinar la presencia de heterocedasticidad en el error: H0 : homocedasticidad H1 : heterocedasticidad Dado que el p-valor=0.2710 > 0.05, no se rechaza la hipótesis nula para α = 5 %, y concluimos que no hay evidencias de heterocedasticidad en el error. Por tanto, podemos asumir que se cumple el supuesto de homocedasticidad.

Presencia de multicolinealidad

Finalmente, el coeficiente V IF se utiliza para detectar la presencia de multicolinealidad (alto nivel de relación lineal entre las variables explicativas). Como regla práctica, consideramos que si algún VIF es superior a 10 entonces hay presencia de multicolinealidad. Pero en este caso ninguna supera esta cifra, con lo que nuestro modelo no presenta esta problema. En conclusión, el único problema que presenta la estimación MCO es la presencia de autocorrelación en el error, que para solucionarlo, puede ser que se tenga que incluir rezagos de las variables tanto explicativas como explicada.

Utilidad de variables binarias

Explique en qué circunstancias es útil la inclusión de variables binarias, en un modelo econométrico. PAUTA: Es útil la aplicación de variables binarias, cuando: a) Se requiere capturar el efecto de factores cualitativos que inciden en la variable endógena, a partir de cierto momento de la serie de tiempo, como cambios en la características de un mercado; la vigencia de una medida de política específica; b) Se requiere capturar el efecto de características propias de agentes cuyas decisiones indicen en la variable endógena; como Mujer / Hombre; Jóvenes / Adultos; Capacitados/ No capacitados. c) Aislar el efecto de una observación específica de interés para la investigación; un dato fuera de rango; una situación específica que se presenta puntualmente en la serie. d) Aislar alguna característica de la variable endógena, en tanto serie de tiempo; como cambios en su tendencia; presencia de ciclos; o de estacionalidad.

Entradas relacionadas: