Estadística y probabilidad: conceptos y aplicaciones
Enviado por Programa Chuletas y clasificado en Matemáticas
Escrito el en español con un tamaño de 23,29 KB
frec. abs= número de casos de X o = frec. relat por suj. que contestan
frec. abs. acum= frec. abs.1+ frec. abs.2
frec. relat= frec. abs/suj. que contestan
frec. relat. acum= frec. relat.1+ frec. relat.2 o = frec. abs. acum./suj. que contestan
Promedio: tendencia central de los valores de la variable. Variabilidad: grado de concentración (dispersión) de los datos alrededor del promedio. Forma: aspecto. asimetría/sesgo y curtosis (apuntamiento). A mayor variabilidad, mayor platicurtica distribución. Índ.asimetría: asimet./error est. asim. >1,96 (+,lepto), <-1,96 (-,plati). -1,95 y 1,95 (simét. y mesocúrt.) >-1,96 Índ. curtosis=curt./error est. curt.
Índ. basados en momentos- tendencia central, Media falta de resistencia a valores atípicos es para distr. simétr. en el centro físico de gravedad es representativa. Solución: media recortada (elimina casos atípicos) o windsorizada (sustituir valor atípico por el más cercano). • Puntuación diferencial: distancia de una puntuación respecto a la media xi=Xi-x̄. El sumatorio es 0, si queremos sumarlas elevarlas al cuadrado. • Suma de la constante: media sumada a esa constante Y=x̄+k • Producto de la constante: Y= x̄·k • Combinación lineal: la media resulta de suma y producto Y=a+x̄·b Índ. dispersión- Varianza S2: dispersión o variabilidad de la distr. Grado en que los datos se separan de la media. Valores: ≥ 0 / Cero: Cuando todas las observaciones son iguales, constante. Es DT al cuadrado Desviación típica S (raíz cuadrada de la varianza): mejor que varianza pero= (1DT representa al 68% de la población, 2DT al 95% y 3DT al 99,7%). Coef. variación: dispersión o variabilidad relativa (CV= (S/x̄)100). Comparar variabilidad de dos grupos en una misma variable con media muy diferente. (- de 50 adecuado, de 50 a 99 moderado y + que 100 mucha heterogeneidad) datos. Comparar variables medidas en distintas unidades. Comparar 2 variables y determinar cuál tiene una mayor variabilidad. Índ. basados en ordenación resistentes a asimetría y casos atípicos (no como basados en momentos) y se construyen en base a la ordenación de valores de la variable. Cuantiles: Tipos: percentiles o centiles y cuartiles. Percentiles: dividen observaciones ordenadas en 100 grupos iguales. Por debajo x% de casos. Percentil de orden k valor de la variable que deja por debajo el k% de casos. j=k(n+1)/100 à ej. P35 - j35= 35(9+1)/100=3,5 nos da la posición. Mediana: número en medio cuando ordenamos. P50. Deja por debajo al 50% de los casos. = media si es simétrica. Para distribuciones asimétricas. Q1 y Q3 son valores intermedios. Cuartiles: Q1=P25, Q2=P50 (mediana), Q3=P75. Amplitud intercuartil: dispersión = al 50% de valores centrales. IQR=Q3-Q1 =P75-P25. Valor que se desvíe 1.5 respecto a Q3 es atípico, si se desvía 3 es caso extremo. Desviación cuartil: la mitad de la amplitud intercuartil. DC=(Q3-Q1)/2=(P75-P25)/2 Coef. var. cuartil: CVC= (Q3-Q1)/(Q3+Q1)=(P75-P25)/(P75+P25) Diagr. caja y bigotes:
Medias resistentes a valores atípicos Media recortada, Trimedia: basado en los cuartiles. T=(Q1+2Q2+Q3)/4 ---- Moda: tendencia central. Valor más frecuente. 2 valores juntos los que más se repiten, se hace la media de ellos. Si no es una distribución bimodal. Si hay 3 modas, dos valores juntos y uno separado, moda número entero y otra de ,5. No hay modas, amodal y si todos los valores son iguales, esa es la moda. Si moda 0-1-2, la moda es 1. Amplitud: valor máximo-valor mínimo B-A Variable ordinal: se calcula igual que las cuantitativas / variable nominal: no se calculan valores acumulados. Relación entre variables cuantitativas (correlación bivariada): Índices de asociación Covarianza: sumatorio producto puntuaciones diferenciales de cada variable (px-mx) · (py-my) + (pxmx) · (py-my)/n. Valores entre ±∞; >0 relación positiva, 0 sin relación y menor que 0 negativa.
Correlación de Pearson: covarianza entre producto de las DTs de x e y. Valores: entre ±1 >0 positiva, 0 sin relación y menor que 0 negativa. Valor acotado con mínimo y máximo, por lo que está estandarizada. Comparar correlaciones obtenidas entre diferentes variables. Matriz de varianza-covarianza: Ej. Covarianza de Syz=14. Varianza de Sy=20. Luego √. Pearson es paramétrico, Spearman no paramétrico (no normal o variables ordinales) Significativa cuando p menor que 0,05. Cálculo a través de matriz de varianza: Ej. 10/(√15 · √12)= 0,747 Coef. determinación: interpretar intensidad de la relación. Se hace elevando al cuadrado la correlación de Pearson. Interpretación: proporción de varianza compartida por ambas variables y proporción de Y (VD) explicada por X (VI). Valores: 0-1 | 0: X explica un 0% | 1: X explica el 100% de Y. Relación var. cuanti. y otra categ. Comparación valores de tendencia central (ej. media) de una variable cuantitativa en los grupos que forma la variable categórica. diagrama de caja múltiple (comparar distribución de la variable cuantitativa en diferentes grupos) y en un diagrama de medias (comparar media var. cuanti. en diferentes grupos). Relación dos variables categ. Tablas de contingencia: tabla de doble entrada que incluye en casillas las frec. absolutas y/o porcentajes relativos de la combinación de ambas variables. Ji-cuadrado de Pearson (Chi): cuantifica asociación dos variables categ. (dice si están relacionadas). Puede dar valores de 0 (no hay asociación ya que oij=eij) a ∞ (menor que 0 indica asociación) a mayor valor, mayor asociación (dependencia). No tiene máximo y depende del tamaño muestral. No informa intensidad de asociación (no estandarizada). oij (puntuación observada-frecuencia absoluta), eij (p. esperada). x²=(oij-eij)²/eij + (lo mismo con la puntuación siguiente). Para sacar la puntuación esperada: total respuestas F (229) multiplicado por total hombres (408) dividido entre total de población (716). Phi de Pearson: cuantifica intensidad de asociación entre dos variables categ. con dos categorías cada una (dicotómicas 2x2). Valores entre 0 (ausencia de relación) y 1 (asociación perfecta). Tiene valor máximo (intensidad de la relación). No hay resultados negativos, ya que Ji está elevado al cuadrado. V de Cramer: cuantifica intensidad de asociación entre dos variables categ. con más de dos categorías. 0 (ausencia de relación) y 1 (asociación perfecta). Al tener valor máximo, podemos ver intensidad de la relación. k es el número de categorías de la variable con menos opciones.
Experimentos aleatorios: se obtiene una observación. Bien delimitado. Tiene que poder reproducirse con las mismas condiciones. En cada ensayo un resultado •Espacio muestral: resultados posibles en experimento aleatorio. Ej. Dado: E = {1, 2, 3, 4, 5, 6}. • Suceso: posibles resultados de un experimento aleatorio. Ej. A=Obtener un número par = {2, 4, 6} - Imposible: Ej. A=Obtener un 7 al lanzar dado de seis caras= {Ø} - Unitario o elemental: un solo elemento del espacio muestral. A=Obtener un 3 dado de seis caras= {3} - Seguro: contempla todo el espacio muestral. A = Obtener entre 1 y 6 en dado de seis caras= {1, 2, 3, 4, 5, 6}
Operaciones con sucesos: - Complementario (nA): si el suceso A no se ha verificado. A = Obtener un número par al lanzar un dado. El complementario= obtener un número impar = nA = {1, 3, 5} - Unión (A U B): se verifica si se realiza cualquiera de los dos sucesos. o A = número par al lanzar dado o B = número inferior a 3--- A U B = {1, 2, 4, 6} - Intersección (∩): pertenece a ambos sucesos (se deben cumplir los 2 sucesos). o A = número par al lanzar un dado o B = número inferior a 3--- A ∩ B = {2} - Incompatible: intersección de dos sucesos es Ø. Sucesos elementales mutuamente excluyentes. o A = número impar al lanzar un dado o B = número superior a 5--- A ∩ B = {Ø} Probabilidad: número que cuantifica la probabilidad de verificación de ese suceso (0 nunca – 1 siempre). Axiomática de la probabilidad: enfoque clásico. - probabilidad de un suceso es entre 0 (imposible) y 1 (seguro). - probabilidad unión de dos sucesos mutuamente excluyentes (o intersección =Ø): P(AUB) = P(A) + P(B) - probabilidad de un suceso complementario: P(nA) = 1 – P(A) - Ley probabilidad total o teorema suma: P(AUB) = P(A) + P(B) – P(A∩B)
Ley multiplicativa: ocurrencia simultánea de dos sucesos independientes. Ej. Probabilidad de sacar tres seises en el parchís y volver a casa. P(A∩B)=P(A)·P(B)
Variable discreta: Ej. Nº de sujeto y año de nacimiento (1998, no 1998,9). Son números enteros (nº accidentes tráfico), nunca con decimales. - Función de probabilidad: asocia cada valor de la variable a su probabilidad de ocurrencia. Frecuencia relativa. Ej. Espacio muestral de un dado=6. Todas tienen la misma probabilidad de aparición. La función de probabilidad es 1/6. Si se suman todos los resultados =1 (100%). En gráfica, líneas rectas. -Función de distribución: asocia a cada valor de la variable la probabilidad de ocurrencia de valores iguales o inferiores. Frecuencia relativa acumulada (tablas de distribución). Ej. probabilidad de 3, sumar la de 2 y la de 1. En gráfica, escalera. Discreta binomial. - Cálculo de probabilidades acumuladas: Ej. En población existe un 30% de personas con un trastorno. Si extraemos aleatoriamente 15 individuos, calcular la probabilidad de que en la muestra haya menos de 8 (es decir, 7 o menos de 7) con el trastorno à B(X; 15, 0’3) - Tabla binomial: n (7) y π (ej. 0,3%) --- P=0,950. La probabilidad de obtener 8 o más: mirar en la tabla la de 8 y restarle la probabilidad total de que ocurra el suceso (1-0,985=0,015) Distribución normal: mayor parte de los valores alrededor de la media (μ), son simétricos respecto a la media. Media, mediana y moda coinciden. Teorema central límite.
Población: conjunto de elementos que comparten una característica al menos a los que pretendemos generalizar los resultados de un estudio. Características: finitas (limitado. Ej. Personas con síndrome de piel de cristal), infinitas (ilimitado. Ej. Mujeres del mundo) muy grandes, trabajar con muestras. - Muestra: subconjunto de elementos que comparten una característica al menos. Se extraen de la población, deben ser representativas (al azar) y son finitas. Parámetros: valor numérico que describe una característica de la población: media, DT, proporción. constantes (siempre mismo valor) y desconocidos (se estiman). En letras griegas. Estadísticos: valor numérico que describe una característica de la muestra. Media (X), DT (Sx), Proporción (P)… aleatorios (dependen de la muestra) y conocidos (calculados con valores de la muestra) letras romanas.
- Muestreo probabilístico: población misma probabilidad de formar la muestra. Más representativa. Probabilidad es conocida. Tipos: Aleatorio simple (MAS): muestra seleccionada en 1 sola etapa, con o sin reposición. Aleatorio sistemático: Elaboramos una lista de los elementos poblacionales y asignamos un número a cada uno. Decidimos tamaño muestra y, aleatoriamente, escogemos los k=N/n números como hayamos decidido. Aleatorio estratificado: subconjunto de población con elementos homogéneos en una característica. Se divide la población en estratos y se extrae MAS de cada estrato. Mejora precisión de estimaciones, requiere menos sujetos que MAS y garantiza representatividad de los estratos. Aleatorio por conglomerados: subconjunto de población conformado por elementos heterogéneos en una característica (en las demás, diferentes). Dividir población en conglomerados y extraer MAS de cada uno. Mantiene la precisión de estimaciones del MAS, menos coste y garantiza representatividad de conglomerados. - No probabilístico: población no misma probabilidad de formar muestra. Tipos: Por cuotas: obtener muestra similar a la población, fijando número de sujetos por cuotas para cada grupo según criterios (edad, sexo, nivel educativo). Se deben conocer porcentajes de cada característica de la población. Intencional: seleccionamos sujetos típicos de la población. Ej. Sondeos electorales. Incidental: seleccionamos sujetos más accesibles. Ej. Alumnos. Bola de nieve: casos iniciales en un estudio sirven para seleccionar a otros casos. En muestras de difícil acceso. Tamaño muestral: muestra de N=30 es suficiente, pero no necesariamente representativa. Error estándar o muestral: dispersión de los datos a partir de diferentes muestras de la misma población. Lo ideal es sin sesgo y poca dispersión. Variabilidad de la distribución muestral del estadístico. A menor EE, mayor precisión. A mayor tamaño muestral, menor EE.
- Promedio de la distribución muestral de un estadístico coincide con el parámetro de población de origen. - Varianza: Si las variables se distribuyen normalmente con parámetros µ y σ, entonces la DM de la media será también normal. Dividiendo varianza de la población entre el tamaño de la muestra. A mayor n, mayor precisión y menor error muestral. A menor varianza, mayor eficiencia. -Estadístico deseable: - Insesgado: al extraer un gran número de muestras, el promedio de todas coincide con el parámetro. Estadísticos insesgados: media, varianza insesgada (la de siempre, porque la división es entre n-1) y proporción | sesgado: varianza sesgada y correlación - Eficiente: al extraer un gran número de muestras, la varianza de todas es pequeña. Varianza sesgada (más que varianza insesgada y que mediana). - Consistente: aumenta el tamaño de la muestra y el valor del estadístico coincide con el parámetro. Todos cuando n= ∞ - Suficiente: estadístico emplea información de la muestra para calcular parámetros. Estadísticos suficientes: media, varianza, correlación, proporción | insuficientes: mediana, percentiles, moda.
Estimación puntual: estimamos un parámetro a partir de un valor muestral. Extraemos muestra aleatoria de la población y calculamos estadístico, asumiendo que representa al parámetro. Pueden usarse diferentes estimadores para estimar parámetros (media, mediana…). Emplear estimadores con propiedades deseables (insesgados, eficientes, consistentes y suficientes). Por intervalos: estimamos un parámetro a partir de un conjunto de valores muestrales. Extraemos muestra aleatoria de la población y calculamos conjunto de estadísticos (intervalo) de la muestra, sumándole y restándole un Error Máximo (Estadístico+EM, E-EM). Tratamos de ver si el parámetro pertenece a ese intervalo. Es más eficiente que la estimación puntual. Intervalo de confianza: zona más probable de encontrar el parámetro. • Error estándar o máximo: determina la amplitud del IC • Nivel de confianza: probabilidad de que el IC contenga el parámetro. • Nivel de riesgo: probabilidad de que el IC no contenga el parámetro. Si a=0,05, la probabilidad de encontrar el parámetro dentro del IC es del 95%; si a=0,01, 99%. A mayor nivel de confianza, menor precisión. Mayor tamaño, mayor precisión. Cálculo: IC de la media sabiendo varianza poblacional (tabla Z): 1º: se calcula el error estándar (EE) dividiendo la DT entre la raíz cuadrada de n. 2º: a la media se le suma (Ls) y resta (Li) la probabilidad de Z y se multiplica por el EE. IC de la media no sabiendo varianza (tabla T): la media se distribuye según t de Student, depende de los grados de libertad (n-1) --- t de Student se aproxima a la normal al aumentar el número de sujetos, por lo que n=30 sujetos es igual que la normal. IC de la proporción no sabiendo la varianza (tabla Z): Calcular IC asociado a proporción de aciertos muestral de 25 ensayos en los que se ha acertado 5 veces una pregunta obtenida en muestra de 100 sujetos con alfa de 0,01. Proporción dividiendo número de aciertos/número de ensayos. Contraste de hipótesis (H) hace referencia a valores poblacionales que se quieren someter a prueba o contraste. - Hipótesis científica: base estadística y se refiere a la realidad. - Hipótesis estadística: refiere a valores poblacionales que se quieren someter a prueba o contraste. Se basa en la HC y se refiere a una distribución de probabilidad. H0 (no se producen cambios): se somete a contraste. Exacta. Rpre=Rpost (=, ≥, ≤) H1 (hay cambios): negación de la nula. Inexacta ---- Resultado pre menor, mayor = Resultado post. Mutuamente excluyentes y exhaustivas. La H1 puede ser unilateral o bilateral. Tipos de contrastes: - Bilateral: no sabemos el valor que tomará el valor teórico, si que el valor poblacional. - Unilateral derecho: Asumimos que el valor teórico será superior al valor poblacional. - Unilateral izquierdo: Asumimos que el valor teórico será inferior al valor poblacional.
1. Intervalo de confianza: se busca el valor poblacional (parámetro) dentro de un conjunto de valores calculados a partir de un valor muestral. Se plantean H0 y H1 y se calcula el IC a partir del valor muestral (se le suma y resta el error estándar). Se busca el valor poblacional dentro del IC y se decide: - Si el IC incluye el valor poblacional, se mantiene la H0, con una probabilidad igual al nivel de confianza (1-alfa) ----- el contraste no es significativo, el valor teórico y el poblacional son iguales. - Si el IC no incluye el valor de la H0, se rechaza y se afirma la alternativa. Significativo. El IC incluye el valor del error estándar de la distribución muestral que refleja las fluctuaciones del muestreo. Un IC se puede considerar como el conjunto de hipótesis aceptables: - A mayor IC, más probable mantener la H0. - A mayor tamaño muestral (N), más estrecho será el IC y mayor será la probabilidad de rechazar la H0, no implica relación causal entre variables, las diferencias no son causadas por el azar del proceso muestral. 2. Pruebas de significación: se comprueba si a cierta probabilidad el parámetro equivale o no al muestral. Se plantean H0 y H1 y se establece la distribución muestral del estadístico de contraste. Se calcula la zona de aceptación y rechazo. Decisión: - Si el estadístico de contraste cae en la zona de aceptación, se mantiene la H0 - Si el estadístico de contraste cae en la zona de rechazo, se rechaza la H0 Probabilidades sobre la H0: Error tipo I: rechazar la H0 cuando es verdadera Error tipo II (β): mantener la H0 cuando es falsa. - Del valor de α: cuanto mayor sea α, menor será β - Del valor de H1: cuanto más próxima sean H1 y H0, mayor será β - Cuanto mayor sea el error típico de la distribución muestral (más dispersión), mayor será β - El tamaño muestral: a más N menor error típico, es decir, menor β
Potencia del estudio: rechazar una H0 falsa cuando es falsa. | Aceptar H0 cuando es verdadera.