Fundamentos de Regresión Lineal y Supuestos del Modelo Clásico en Econometría

Enviado por Chuletator online y clasificado en Matemáticas

Escrito el en español con un tamaño de 8,3 KB

Conceptos Fundamentales de Regresión Lineal

Tipos de Variables

  • Y (Variable Dependiente): Explicada, a explicar, dependiente, endógena, regresando.
  • X (Variable Independiente): Explicativa, independiente, exógena, regresora.

Tipos de Datos

  • Transversales: Observaciones de diferentes unidades en un mismo punto en el tiempo (ej. 50 familias en 2018).
  • Temporales (Series de Tiempo): Observaciones de una misma unidad a lo largo del tiempo (ej. 1 familia entre 2012-2020).
  • Combinados: Muestras transversales independientes en diferentes momentos del tiempo (ej. 50 familias en 2016, 30 familias en 2018, 40 familias en 2022).
  • Panel/Longitudinales: Observaciones de las mismas unidades a lo largo del tiempo (ej. 30 familias entre 2016-2018).

Supuestos del Modelo Clásico de Regresión Lineal (MCRL)

  • No hay errores de medida en las variables.
  • Los regresores (variables X) son no estocásticos (fijos en muestreos repetidos).
  • La perturbación aleatoria no está autocorrelacionada.

Ecuación de Regresión Lineal y Propiedades del Error

La ecuación de regresión lineal simple es: Y = β₀ + β₁X₁ + ε

La parte no explicada es el error o residuo: e

Propiedades de los residuos (e):

  • eᵢ = Yᵢ - Ŷᵢ
  • Suma de Cuadrados de los Errores (SCE): SCE = Σeᵢ²
  • Suma de los residuos: Σeᵢ = 0
  • Los residuos individuales no son necesariamente cero: eᵢ ≠ 0
  • Suma de los productos cruzados de X y e: ΣXᵢeᵢ = 0
  • Covarianza entre el error y los regresores: Cov(e, X) = 0

Estimación por Mínimos Cuadrados Ordinarios (MCO)

Matriz de Regresores (X'X)

La matriz de productos cruzados de los regresores (X'X) para un modelo con k variables explicativas y una constante (k+1 parámetros) tiene una dimensión de (k+1)x(k+1):

X'X = (  n       ΣX₁       ΣX₂  )
( ΣX₁ ΣX₁² ΣX₁X₂ )

El rango de esta matriz debe ser k+1.

Inversa de la Matriz de Regresores (X'X)⁻¹

La inversa de la matriz de productos cruzados se calcula como:

(X'X)⁻¹ = Adj(X'X)ᵀ / |X'X|

El rango de esta matriz también debe ser k+1.

Matriz de Productos Cruzados de Regresores y Variable Dependiente (X'Y)

La matriz de productos cruzados de los regresores y la variable dependiente (X'Y) tiene una dimensión de (k+1)x1:

X'Y = ( ΣYᵢ   )
( ΣX₁Yᵢ )
( ΣX₂Yᵢ )

Vector de Coeficientes Estimados (b)

El vector de coeficientes estimados (b) se obtiene mediante:

b = (X'X)⁻¹ * (X'Y) = ( b₀ )
( b₁ )
( b₂ )

Donde b es el estimador de β.

Suma de Cuadrados de los Errores (SCE) y Varianza del Error

La Suma de Cuadrados de los Errores (SCE) se define como:

  • SCE = Σeᵢ² = e'e
  • También se puede calcular como: SCE = Y'Y - b'X'Y (donde Y'Y = ΣYᵢ²)

La varianza muestral de los errores () y la desviación típica (S) se calculan como:

  • S² = SCE / (n - k - 1)
  • S = √(SCE / (n - k - 1)) (Desviación Típica)

Condiciones para el Funcionamiento del Modelo

  • El determinante de la matriz (X'X) debe ser distinto de cero: |X'X| ≠ 0.
  • El rango de (X'X) debe ser k+1 (rango completo).
  • El número de observaciones (n) debe ser mayor o igual al número de parámetros a estimar (k+1): n ≥ k+1.
  • No debe existir relación lineal perfecta entre las variables explicativas (ausencia de multicolinealidad perfecta).

Supuestos Adicionales y Propiedades de los Estimadores

Supuestos Relacionados con las Variables

  • Selección de variables correctas: El modelo debe incluir las variables explicativas relevantes.
  • No se omite ninguna variable relevante que explique Y.
  • No se incluyen variables irrelevantes.
  • No hay errores de medida en las variables.
  • Los regresores (X) son no estocásticos (fijos en muestreos repetidos).
  • La perturbación aleatoria no está autocorrelacionada.

Supuestos Clave de las Variables Explicativas

  • Regresores no estocásticos: Implica que, al tomar muestras repetidas del mismo tamaño, los valores de las variables X permanecen fijos, mientras que Y puede variar.
  • Ausencia de Multicolinealidad Perfecta: No existe una relación lineal perfecta entre las variables explicativas (X).
  • El número de observaciones (n) debe ser mayor o igual al número de parámetros a estimar (k+1): n ≥ k+1.

Supuestos de la Perturbación Aleatoria (ε)

  • Media Cero: La esperanza de la perturbación aleatoria es cero: E(ε) = 0.
  • Homocedasticidad: La varianza de la perturbación aleatoria es constante para todas las observaciones: Var(ε) = σ².
  • Esto implica que: E(εᵢ²) = σ².
  • Ausencia de Autocorrelación: La covarianza entre dos perturbaciones aleatorias diferentes es cero: Cov(εᵣ, εₛ) = 0 para r ≠ s.
  • Si Cov(εᵣ, εₛ) = 0, entonces Cov(Yᵣ, Yₛ) = 0.

Matriz de Varianzas y Covarianzas de la Perturbación (Ω)

La matriz de varianzas y covarianzas de la perturbación (Ω) es una matriz nxn:

Var(ε) = Ω = ( Var(ε₁)   Cov(ε₁,ε₂) ... )
( Cov(ε₁,ε₂) Var(ε₂) ... )
( ... ... ... )

Propiedades de los Parámetros y Estimadores

  • El estimador de los coeficientes es b = β̂.
  • El estimador de la varianza del error es σ̂² = S².

Matriz de Varianzas y Covarianzas de los Estimadores (Var(b))

La matriz de varianzas y covarianzas de los estimadores (b) es una matriz (k+1)x(k+1):

Var(b) = ( Var(b₀)   Cov(b₀,b₁) ... )
( Cov(b₀,b₁) Var(b₁) ... )
( ... ... ... )
  • La varianza de los estimadores es: Var(b) = σ²(X'X)⁻¹.
  • La covarianza entre dos estimadores es: Cov(bₚ, bq) = σ²(X'X)⁻¹ₚq (elemento pq de la matriz).
  • La varianza estimada de los estimadores es: Var̂(b) = S²(X'X)⁻¹.
  • La covarianza estimada entre dos estimadores es: Cov̂(bₚ, bq) = S²(X'X)⁻¹ₚq.
  • La desviación típica de un estimador (error estándar) es: DT(bⱼ) = √Var(bⱼ).
  • La esperanza de la varianza muestral es la varianza poblacional: E(S²) = σ² = E(SCE / (n - k - 1)).
  • Los estimadores son insesgados: E(b) = β y E(bⱼ) = βⱼ.
  • La desviación típica estimada de la perturbación es: DT̂(ε) = σ̂ = S.

Clasificación de Variables y Parámetros

Aleatorios/Estocásticos:

  • Ŷ (Valores predichos)
  • (Varianza muestral del error)
  • ε (Perturbación aleatoria)
  • b (Estimadores de los coeficientes)
  • Y (Variable dependiente)
  • Var̂ (Varianza estimada)
  • β̂ (Estimadores de los coeficientes)
  • S (Desviación típica muestral del error)

Parámetros/No Estocásticos/No Aleatorios:

  • Var (Varianza poblacional)
  • σ² (Varianza poblacional del error)
  • β (Coeficientes poblacionales)
  • X (Variables explicativas, consideradas fijas)
  • σ (Desviación típica poblacional del error)

Entradas relacionadas: