Inferencia en Modelos de Regresión Lineal: El Estadístico F y sus Aplicaciones
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en
español con un tamaño de 13,13 KB
Deducción del Estadístico F
Para el caso en el que la **varianza del término de error** del modelo, $\sigma^2$, es desconocida, existe un método alternativo al **test de Wald** expuesto hasta ahora. Para derivarlo, en primer lugar, tenemos que tener en cuenta (no es difícil de demostrar) que si el término de perturbación del modelo se distribuye como una **Normal**, con media cero, es **homocedástica** y no presenta problemas de **autocorrelación**, es decir, si se cumple que $\boldsymbol{\varepsilon} \sim N(\boldsymbol{0}; \sigma^2\boldsymbol{I})$, entonces se tiene que:
FORMULA
y es independiente de la expresión (4.2) de la diapositiva 59. Dado que las dos distribuciones **chi-cuadrado** son independientes, entonces:
FORMULA
El estadístico $\boldsymbol{F}$ se utiliza exactamente de la misma manera que el test de Wald. Así, para contrastar la hipótesis nula $\boldsymbol{A\beta} = \boldsymbol{c}$, los pasos que hay que seguir son los siguientes:
- En primer lugar, se estima el modelo $\boldsymbol{y} = \boldsymbol{X\beta} + \boldsymbol{\varepsilon}$ por **MCO** (Mínimos Cuadrados Ordinarios), obteniéndose tanto el vector de coeficientes estimados de los parámetros $\boldsymbol{\beta}$ como $(\boldsymbol{X^{\prime}X})^{-1}$.
- En segundo lugar, se estima la **varianza de la perturbación aleatoria** del modelo como ya dijimos antes, es decir, como:
FORMULA
- En tercer lugar, se calcula el estadístico $\boldsymbol{F}$ a través de la expresión obtenida antes:
FORMULA
- En cuarto y último lugar, se compara con el **valor crítico** de una distribución $\boldsymbol{F}$ con $m$ grados de libertad en el numerador y $n – k$ grados de libertad en el denominador al nivel de significatividad deseado y se actúa como siempre: si el estadístico cae a la derecha del valor crítico se rechaza $H_0$, no rechazándose si cae a la izquierda.
FORMULA
1.º Caso Especial: Contraste de Significatividad Individual
Por lo tanto, el contraste de significatividad individual puede llevarse a cabo, de manera equivalente, a través de una $\boldsymbol{t}$ de **Student** con $n – k$ grados de libertad. El procedimiento es el siguiente:
- En primer lugar, se calcula el estadístico de contraste:
FORMULA
Se calcula el valor absoluto del estadístico porque normalmente el contraste de significatividad individual se hace a **dos colas**, es decir, $H_1: \beta_j \neq 0$.
- En segundo lugar, se compara este estadístico con el valor crítico de una $t_{n–k}$.
2.º Caso Especial: Contraste de Significatividad Global
En el **Modelo Lineal General (MLG)**, dado por la expresión:
FORMULA
Si, una vez estimado por MCO, supongamos que queremos comprobar si alguna de las variables independientes son capaces de explicar el comportamiento de la variable dependiente, es decir, estamos interesados en realizar el **contraste de significatividad global**:
FORMULA
donde fijémonos que, en la hipótesis nula, no se incluye el parámetro asociado al término constante del Modelo Lineal General. En este caso concreto, la expresión del estadístico $\boldsymbol{F}$ se reduce a:
FORMULA
siendo el $\boldsymbol{R^2}$ el **coeficiente de determinación** estudiado anteriormente.
Consecuencias de $\boldsymbol{\varepsilon}$ no ser Ruido Blanco
1.º Caso: Omisión de Variables Relevantes
Imaginemos que especificamos el siguiente modelo econométrico:
FORMULA
Sin embargo, supongamos que el verdadero modelo no es éste, sino el siguiente:
FORMULA
que es el mismo que el anterior, salvo por el hecho de que en el primero hemos *omitido* la variable explicativa $x_{t,4}$, que es una **variable relevante**. En el modelo (2.2) se tiene que $a_t$ es **Ruido Blanco**, mientras que, comparando los modelos (2.1) y (2.2) tendríamos, sin embargo, que:
FORMULA
Tomando esperanzas en la expresión anterior se tiene que:
FORMULA
Es decir, un **error de especificación del modelo** (haber omitido una variable relevante) llevaría a que la esperanza de la perturbación no fuera nula.
2.º Caso: Autocorrelación del Término de Perturbación
Consideremos que tenemos el siguiente modelo econométrico:
FORMULA
donde se tiene que:
FORMULA
En este caso el término de perturbación $\varepsilon_t$ no es independiente de su pasado, puesto que, como podemos observar, $\varepsilon_t$ es función de $\varepsilon_{t–1}$. Entonces, si calculamos la **autocovarianza** entre $\varepsilon_t$ y $\varepsilon_{t–1}$ se tendría que:
FORMULA
Demostraremos en Econometría II que:
FORMULA
con lo que la autocovarianza entre $\varepsilon_t$ y $\varepsilon_{t–1}$ no es nula y, por lo tanto, no se cumple el supuesto de **ausencia de autocorrelación**. En la expresión anterior se tiene que:
FORMULA
3.º Caso: Heterocedasticidad en el Término de Perturbación
Consideremos que tenemos el siguiente modelo econométrico:
FORMULA
en el cual se cumple que:
FORMULA
es decir, que la **varianza no es constante**, sino que varía o bien entre individuos o bien a lo largo del tiempo (en función del tipo de datos que estemos manipulando). Además, sabemos que la varianza de la perturbación se comporta conforme al siguiente modelo:
FORMULA
siendo $z_t$ alguna variable que explica el movimiento o variabilidad de la varianza del término de perturbación, $\varepsilon_t$. Si esto ocurre, entonces se incumple el supuesto de **homocedasticidad**. Se dice entonces que tenemos un problema de **heterocedasticidad** en el término de perturbación del modelo $\varepsilon_t$.
Consecuencias de $\boldsymbol{X}$ Estocástica
Las variables independientes deben cumplir dos propiedades:
- En primer lugar, tienen que ser **no estocásticas** (o exógenas estrictas).
- En segundo lugar, tienen que ser **independientes**. Se supone que las variables $\boldsymbol{x} = (x_1, x_2, \dots, x_k)$ deben ser **variables deterministas**, esto es, deben ser previsibles con total certidumbre. Este supuesto es bastante irreal en la mayor parte de los casos prácticos aunque, sin embargo, si las variables $\boldsymbol{x} = (x_1, x_2, \dots, x_k)$ no están correlacionadas con el término de error $\boldsymbol{\varepsilon}$, entonces las consecuencias pueden no ser muy graves.
Además, las variables $\boldsymbol{x} = (x_1, x_2, \dots, x_k)$ deben ser **linealmente independientes**, es decir, ninguna variable independiente ha de poder ser expresada como una combinación lineal exacta de las restantes. Si, por ejemplo, tenemos como variables explicativas el nivel de importaciones, el nivel de exportaciones, y las exportaciones netas, a las que llamaremos $x_1$, $x_2$ y $x_3$, respectivamente, entonces es claro que se incumpliría este supuesto, dado que $x_3 = x_2 – x_1$.
Propiedades Algebraicas: $\boldsymbol{R^2}$
Definición del Coeficiente de Determinación ($\boldsymbol{R^2}$)
Definimos el **coeficiente de determinación** o **$R$ cuadrado** como el cociente entre la varianza muestral de la variable dependiente estimada por MCO y la varianza de la variable dependiente, es decir:
FORMULA
Debido a que las varianzas, por definición, no pueden ser negativas, entonces el coeficiente de determinación debe ser un número positivo. Además, tal y como se desprende de la expresión (3.3) de la dispositiva anterior, la varianza muestral de la variable dependiente tiene que ser mayor o igual que la varianza muestral de la variable dependiente estimada por el método MCO y, debido a ello, el coeficiente de determinación es un número comprendido entre cero y uno. Debido a que $\boldsymbol{R^2} \in [0, 1]$, entonces el mismo se puede interpretar como un porcentaje, como el **porcentaje de la variabilidad** de la variable dependiente que es explicada por la variabilidad de las variables independientes $\boldsymbol{x} = (x_1, x_2, \dots, x_k)$.
Definición del Coeficiente de Determinación Corregido ($\boldsymbol{\bar{R}^2}$)
Definimos el **coeficiente de determinación corregido** como una medida de **bondad de ajuste** del modelo econométrico que, a diferencia del *coeficiente de determinación*, tiene en cuenta los **grados de libertad** del modelo, penalizando la incorporación de un mayor número de variables explicativas en el mismo. Se calcula como:
FORMULA
Al aumentar el número de variables explicativas en el Modelo Lineal General aumentamos la variabilidad de la variable dependiente estimada por el método MCO y, consecuentemente, provocamos que el $\boldsymbol{R}$ cuadrado crezca acercándose a la unidad. Pero, sin embargo, puede que la capacidad explicativa de las nuevas variables independientes acerca del comportamiento de la variable dependiente sea inexistente. Por ello se calcula el coeficiente de determinación corregido, que sirve para compararlo con el $\boldsymbol{R^2}$:
- Si son similares en magnitud se concluye que no hay problemas con los grados de libertad del modelo y el $\boldsymbol{R^2}$ puede interpretarse de manera estándar.
- Si son muy diferentes, entonces el $\boldsymbol{R^2}$ exagera la capacidad explicativa de las variables independientes.
Interpretación de Coeficientes
Vamos a estudiar cómo se interpretan los coeficientes del Modelo Lineal General en función de cómo sean las variables independientes y de cómo sea la variable dependiente:
FORMULA
Variables en Niveles (Continuas)
Las variables independientes, $x_{t,j}$, $j = 2, 3, \dots, k$, están expresadas en **niveles** y son variables **continuas**, mientras que la variable dependiente está en **niveles**:
FORMULA
Puesto que uno de los supuestos del Modelo Lineal General es que la variable dependiente, $y_t$, es una variable continua, entonces, se cumple que:
FORMULA
es decir, el coeficiente $\boldsymbol{\beta_j}$, asociado a la variable explicativa $x_{t,j}$, $j = 2, 3, \dots, k$, es el **efecto marginal** que la variable explicativa $x_{t,j}$ produce sobre la variable que queremos explicar, $y_t$. Dicho de otra manera, si la variable $x_{t,j}$ se incrementa en una unidad, entonces la variable dependiente, $y_t$, varía en $\boldsymbol{\beta_j}$ unidades (incrementa, si el signo de $\beta_j$ es positivo, y disminuye, si el signo de $\beta_j$ es negativo).
Variables en Logaritmos (Elasticidad Constante)
Alguna de las variables explicativas, $x_{t,j}$, $j = 2, 3, \dots, k$, están expresadas en **logaritmos neperianos** y son variables **continuas**, mientras que la variable dependiente está, también, en **logaritmos neperianos**. Por ejemplo, sea el modelo:
FORMULA
En este caso, se tiene que:
FORMULA
es decir, el coeficiente $\boldsymbol{\beta_j}$, asociado a la variable explicativa $x_{t,j}$, $j = 2, 3, \dots, k$, es una **elasticidad constante** de la variable explicativa $x_{t,j}$ sobre la variable a explicar, $y_t$. Dicho de otra manera, si la variable $x_{t,j}$ se incrementa en un 1%, entonces la variable dependiente, $y_t$, varía en un $\boldsymbol{\beta_j}$% (incrementa, si el signo de $\beta_j$ es positivo, y disminuye, si el signo de $\beta_j$ es negativo).
Variable Dependiente en Logaritmos (Semielasticidad Constante)
Las variables independientes, $x_{t,j}$, $j = 2, 3, \dots, k$, están expresadas en **niveles** y son variables **continuas**, mientras que la variable dependiente está en **logaritmos neperianos**. Por ejemplo, sea el modelo:
FORMULA
En este caso, se tiene, por un lado, que:
FORMULA
es decir, el coeficiente $\boldsymbol{\beta_j}$, asociado a la variable explicativa $x_{t,j}$, $j = 2, 3, \dots, k$, es una **semielasticidad constante** de la variable explicativa $x_{t,j}$ sobre la variable a explicar, $y_t$. Dicho de otra manera, si la variable $x_{t,j}$ se incrementa en una unidad, entonces la variable dependiente, $y_t$, varía en $(\mathbf{100 \times \beta_j})$% unidades (incrementa, si el signo de $\beta_j$ es positivo, y disminuye, si el signo de $\beta_j$ es negativo).
Variables Independientes Dicotómicas
Las variables independientes, $x_{t,j}$, $j = 2, 3, \dots, k$, están expresadas en **niveles** y son variables **dicotómicas**, mientras que la variable dependiente está, también, en **niveles**:
FORMULA
Por ejemplo, sea el modelo: donde si la variable $x_{t,j} = 1$, $j = 2, 3, \dots, k$, indica que dicha variable presenta una característica determinada, mientras que si $x_{t,j} = 0$, $j = 2, 3, \dots, k$, indica la ausencia de dicha característica. Si nos centramos en el efecto de una sola variable explicativa sobre la variable dependiente, por ejemplo, la variable $x_{t,2}$, entonces si $x_{t,2} = 1$ se tiene que:
FORMULA
mientras que si $x_{t,2} = 0$, entonces se tiene que:
FORMULA
Si restamos las dos expresiones vemos que el coeficiente es, en este caso, la **diferencia de comportamiento entre dos grupos diferentes**: aquellos que tienen la característica y los que no la tienen:
FORMULA