Fundamentos de Regresión: Predicción con Modelos Simples y Múltiples
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 3,12 KB
Definición de Regresión Estadística
La regresión es una técnica estadística que busca profundizar en las relaciones entre variables.
Su objetivo es determinar en qué medida los cambios en los valores de una o varias variables están asociados a cambios en los valores de otra (extensión de la correlación).
La regresión persigue los siguientes objetivos:
- Descubrir qué variables pueden **predecir** los valores que adquirirá otra variable.
- **Predecir** los valores de una variable a partir del conocimiento de otra.
La variable que es predicha se denomina **criterio**, mientras que la variable o variables que sirven para predecir se llaman **pronosticadoras**.
Si el problema implica a una única variable pronosticadora, se habla de **regresión simple**; si implica a dos o más variables pronosticadoras, se denomina **regresión múltiple**.
Criterio de Mínimos Cuadrados
La regresión busca predecir con la mayor exactitud posible el valor de una variable en un caso, conociendo el valor de otra variable para ese mismo caso.
Para la predicción, se podrían usar cualquiera de las medidas descriptivas, como la media, la mediana o la moda.
El modo habitual de valorar la adecuación de una variable pronosticadora es examinar los **errores** al predecir la variable criterio. Al sumar los errores, se esperaría obtener una medida de la exactitud de la predicción.
El objetivo es obtener la suma más pequeña posible de **errores al cuadrado**, ya que esto implicaría que la predicción sería más exacta.
A la hora de predecir, la regresión utiliza el principio de **minimizar la suma de errores al cuadrado** de la predicción. Si la variable criterio estuviera correlacionada con la variable pronosticadora, los cambios en una variable estarían asociados a cambios en la otra variable.
La fórmula general es:
y = a + bx + e
Esta fórmula se conoce como **criterio de mínimos cuadrados**, ya que permite minimizar los errores al cuadrado de la predicción.
La línea que une los valores pronosticados para cada caso es la **recta de regresión**, definida por la fórmula.
Errores de Predicción
Solo en aquellos casos que estén justo sobre la recta, el valor real coincidirá con el pronosticado. El resto de los casos presentan un **error en la predicción**, que en conjunto está compensado por los casos que están por encima y por debajo de la recta.
Si los **coeficientes de regresión** no alcanzan una predicción perfecta de la variable criterio, es necesario estimar un rango de valores para esos coeficientes.
Se puede calcular ese rango de valores a partir de la medida de los errores de predicción, obteniéndose así el **error típico del coeficiente de regresión**.
Este **error típico** es la **desviación típica** de los coeficientes de regresión al realizar el pronóstico.
El número de errores típicos de los coeficientes que se utilicen viene dado por el **nivel de confianza** deseado y el **tamaño de la muestra**, lo que determina un **valor 't'**.