Conceptos Estadísticos Clave y Pruebas para Datos Cuantitativos
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en español con un tamaño de 4,3 KB
Tipificación de Variables
Qué es y Sentido
Qué es tipificar variables y qué sentido tiene: La tipificación permite comparar distintas variables que no tienen relación entre ellas. Con ello, obtenemos una nueva variable llamada “z”, que es el resultado de restar la media de la muestra y dividir por la desviación típica.
Propiedades de una Distribución Tipificada
Propiedades:
- La media es 0.
- La desviación típica es 1.
Se representa como N(0,1). La fórmula es: Z = (x - media) / DT.
Variables Cualitativas Nominales
Características y Cálculo
Cómo se trabaja con una variable cualitativa nominal: Sirven para diferenciar unos objetos de otros. Por lo tanto, las únicas operaciones permitidas son las relacionadas con la igualdad y la desigualdad.
- V.C.N: Valores no numéricos.
- Ausencia de orden.
Ejemplo: (poco, muy poco, mucho) - Nota: Este ejemplo podría ser más representativo de una variable ordinal, ya que implica un orden, pero se presenta aquí como ejemplo de asignación simbólica.
Se les puede asignar un valor simbólico para identificar categorías (no para determinar orden en variables nominales puras): 1. Verde, 2. Amarillo, y 3. Rojo.
Validez en Investigación
Define Validez Interna y Externa
- Validez interna: Se refiere a la concordancia dentro de la misma investigación entre los resultados obtenidos y la realidad investigada.
- Validez externa: Se refiere a la misma concordancia, pero con la realidad de otras poblaciones o fenómenos no investigados, distintos, pero similares. Implica representatividad y generalización de los resultados.
Pruebas Estadísticas para Datos Cuantitativos
Problema 2: Sabiendo que esta investigación es cuantitativa de razón, podemos usar la vía paramétrica si se cumplen los prerrequisitos.
Prerrequisitos y Pruebas para Muestras Relacionadas
Para las muestras relacionadas (O1 y O2), deben cumplirse los prerrequisitos de normalidad.
Para ello, se utilizan las pruebas de Kolmogorov-Smirnov (KS) y Shapiro-Wilk (KSL o SW).
- Hipótesis Nula (H₀): La muestra proviene de una distribución normal (ej. O1 ~ N).
- Hipótesis Alternativa (H₁): La muestra no proviene de una distribución normal (ej. O1 N).
Estas pruebas proporcionan un valor p (significación):
- Si p < 0.05: Se rechaza la hipótesis nula (no hay normalidad).
- Si p > 0.10: Se acepta la hipótesis nula (hay normalidad).
Si se acepta la hipótesis nula (normalidad), se realiza la prueba t de Student para muestras relacionadas (H₀: μO1 = μO2).
Si se rechaza la hipótesis nula (no hay normalidad), se realizan las pruebas no paramétricas de Wilcoxon y la prueba de los signos (H₀: P(O1 > O2) = P(O1 < O2)) para las muestras relacionadas O1 y O2.
Prerrequisitos y Pruebas para Muestras Independientes
Para las muestras independientes (O1 y O3; O2 y O4), al ser cuantitativas de razón, deben cumplirse los prerrequisitos de normalidad y homogeneidad de varianzas.
Para la normalidad, se usan KS y KSL (o SW), que dan un valor p:
- Si p < 0.05: Se rechaza la normalidad.
- Si p > 0.10: Se acepta la normalidad.
Para la homogeneidad de varianzas, se usa la prueba de Levene.
- Hipótesis Nula (H₀): Las varianzas son iguales (σ²O1 = σ²O2).
Si se aceptan la normalidad y la homogeneidad de varianzas, se realiza una prueba t de Student para muestras independientes.
Si no se cumplen estos prerrequisitos, se realiza la prueba no paramétrica U de Mann-Whitney.
Medidas Descriptivas
Al ser una variable cuantitativa de razón, se pueden calcular:
- Medidas de tendencia central: media, mediana y moda.
- Medidas de dispersión: desviación típica, varianza, amplitud, mínimo y máximo.
- Medidas de forma de la distribución: asimetría y curtosis.