Conceptos Clave sobre Regresión: Verdades, Falsedades y Aclaraciones

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 7,41 KB

Análisis de Regresión y Variables

El análisis de regresión me permite determinar con cierta precisión los valores individuales de la variable dependiente a partir de los valores de las variables dependientes.

Falso, el análisis de regresión permite establecer la relación entre las variables independientes (X) sobre el valor promedio de la variable dependiente (Y).

Intervalo de Confianza

Un intervalo de confianza para un parámetro poblacional se construye conociendo el % de error y la distribución del parámetro estimado.

Falso, se requiere conocer alfa, b y la distribución de b. A partir de la distribución se puede conocer los Se(b).

P-valor y Significancia

Un p-valor bajo garantiza que el parámetro poblacional es distinto de cero.

Falso, el p-valor es el nivel de significancia más bajo (error tipo 1), y el estadístico JB permite evaluar o validar la prueba de hipótesis nula (significancia).

Coeficiente de Determinación y Distribución t-Student

El coeficiente de determinación será igual a 1, cuando el término de error muestral se distribuya como t-Student.

Falso, el coeficiente de determinación será 1 cuando la sumatoria de "u" gorro al cuadrado sea igual a cero y no tiene relación con la respuesta que se establezca para la distribución de los errores poblacionales.

Sesgo de Especificación y Término de Error

La posibilidad de sesgo de especificación es una de las razones para incluir un término de error en una estimación econométrica.

Verdadero, se incorpora porque no se conocen todas las variables que explican Y, no es posible conocer todas las X consideradas.

Coeficiente de Determinación Ajustado

Un coeficiente de determinación ajustado permite corregir las varianzas estimadas y por ello ayuda a la inferencia estadística.

Falso, R2 solo corrige el coeficiente de determinación de regresión múltiple, considerando el número de variables explicativas vía el ajuste de grados de libertad.

Variables Dummy y Cambio Estructural

Las variables dummy permiten determinar la presencia de cambio estructural en una función de regresión a través del coeficiente de determinación.

Falso, los cambios estructurales pueden identificarse incorporando variables dummy en el intercepto y/o pendiente. De esta forma, utilizando toda la muestra se puede determinar la significancia estadística de las dummy y concluir si existe cambio estructural y dónde se da (B0 y/o B1).

Modelos en Logaritmo

La ventaja de estimar un modelo en logaritmo es que permite determinar directamente los parámetros como cambios porcentuales.

Verdadero, en el modelo log-log, las pendientes corresponden a las elasticidades, ya que es un modelo lineal.

Normalidad de los Errores

La normalidad de los errores permite probar hipótesis acerca de los coeficientes en un modelo econométrico.

Verdadero, si el error es normal, también lo será la distribución de la variable endógena y con ello la de los coeficientes.

Bondad de Ajuste

La bondad de ajuste de un modelo de regresión me permite determinar cómo se ajustan mis datos a la regresión.

Verdadero, me permite saber cuánto de la variación de Y es explicada por la variación de las X.

Parámetros Estimados en Modelos de Regresión Múltiple (MRM)

Los parámetros estimados en un MRM deben interpretarse de la misma forma que los de una regresión simple.

Falso, en el análisis de regresión múltiple, los "b" asociados a las variables explicativas se deben interpretar como el efecto incremental en el valor de la variable Y promedio asociado a un incremento de 1 unidad de la variable explicativa, considerando el resto en fijas.

Estimación de un MRM y Relación Lineal

La estimación de un MRM requiere que las variables explicativas no tengan una relación lineal exacta entre ellas.

Verdadero, cuando las variables explicativas tienen una relación lineal exacta es imposible estimar los parámetros poblacionales y la desviación estándar queda indeterminada.

Variables Dummy e Intercepto

¿Por qué en una regresión que incorpora un intercepto deben incorporarse al modelo m-1 variables dummy para incorporar la presencia de atributo?

Si no se respeta esta regla se provoca lo que se conoce como trampa de la variable dicótoma, es decir, se produce perfecta colinealidad o multicolinealidad si hay más de una relación exacta entre las variables.

Utilidad de las Variables Dummy para Evaluar Cambio Estructural

¿Por qué las dummy son útiles para evaluar cambio estructural?

Permiten determinar la presencia de cambio estructural en una función de regresión a través de la pendiente y/o intercepto. Y = b1 + b2X + b3D + b4DX.

Significancia de una Variable Cualitativa

La significancia de una variable cualitativa se debe hacer con un test F dado que la desviación estándar estimada es errónea.

Falso, la significancia del parámetro que acompaña a la variable cualitativa (dummy) se mide por un test T y la desviación estándar de dicho parámetro no es errónea.

R2 Alto en una Estimación

Un R2 alto es bueno en una estimación, ya que facilita la interpretación de los parámetros estimados.

Falso, un R2 alto me dice que un mayor % de la variación de Y es explicada por las X, pero no dice nada de la interpretación de los "b".

Validez de los Test F

Los test F son válidos en la medida que no exista una fuerte asociación lineal entre las variables explicativas y el estadístico JB sea cero.

Verdadero, el testeo de hipótesis descansa en la normalidad de los errores. Con un JB=0 hay evidencia de normalidad. Por otro lado, la asociación lineal entre los X afecta los T sin llegar a invalidarlos, pero no a los test F.

Inferencia Estadística y Test T-Student

Para realizar inferencia estadística de los parámetros poblacionales en un modelo de regresión múltiple se necesita conocer los T-Student de los parámetros estimados.

Incierto, dependiendo del tipo de test (hipótesis). Para el caso de significancia individual se requiere el test T, pero para otro tipo de testeo se requiere aplicar test F.

Término de Error Poblacional

El término de error poblacional se debe incorporar a una regresión para asegurarse que el modelo sea estocástico y no determinístico para poder realizar hipótesis de los parámetros poblacionales.

Falso, el término de error se incorpora para recoger aquellos factores que no están explícitos en la regresión y que afectan el valor promedio poblacional de la variable Y. En tanto, para realizar inferencia se requiere asumir algún supuesto de distribución del término de error.

Entradas relacionadas: