Estadística y Probabilidad: Conceptos Esenciales para la Inferencia y Pruebas de Hipótesis
Enviado por Chuletator online y clasificado en Matemáticas
Escrito el en
español con un tamaño de 4,79 KB
Conceptos Fundamentales en Estadística y Probabilidad
Este documento presenta una serie de preguntas y respuestas clave sobre conceptos esenciales en estadística y probabilidad, abarcando desde la inferencia estadística y pruebas de hipótesis hasta el muestreo y las distribuciones de probabilidad. Es una herramienta útil para repasar y consolidar conocimientos fundamentales en estas áreas.
Sección 1: Inferencia Estadística y Pruebas de Hipótesis
- La descomposición de la S2 indica: El efecto de la VI
- Capacidad de un indicador para amortiguar cambios bruscos en datos: Robustez
- La relación entre el poder de la prueba y la variabilidad es: Inversa
- Aceptar H0 implica que no existen diferencias: Quizás
- Si la variación aleatoria sube, la F obtenida: Sube
- En las pruebas no paramétricas se requiere elección aleatoria: Resistente a transformaciones
- El ANOVA usa, excepto: Errores estándar
- Los intervalos de confianza para un parámetro son simétricos a: La media de la población
- El bloque sirve para reducir: Las diferencias individuales
- En muestreo, el cómo responde: Representatividad
- En el ANOVA, la información cuantitativa es la: VD (Variable Dependiente)
- La dispersión de la t de Student con relación a la de la normal es: Mayor
- Supuesto paramétrico, excepto: Datos ordinales
- ¿Cuántos contrastes ortogonales hay en un ANOVA?: K-1
- ¿Qué supuesto justifica el cálculo de la SCE?: Homocedasticidad
- Datos que inducen un falso incremento de la asimetría: Valores atípicos (fuera de rango)
- El AED (Análisis Exploratorio de Datos) en relación a los datos, es una: Declaración filosófica
- Los parámetros en el sentido de la VI se basan en el teorema de la: Independencia
- La prueba de Friedman supone: Rangos
- La prueba a posteriori de DM: Wallis
- El tamaño de la muestra depende fundamentalmente de la: Dispersión
- Dado que (Rxy=1), la relación es: Directa
- Si la Z cae en la zona de rechazo y la H0 es falsa, la decisión implica: Acierto
- Un Rxy alto indica: Asociación
- La afirmación negativa sobre uno o más parámetros sometida a comparación es la: H0 (Hipótesis Nula)
- Prueba no paramétrica para diseños de bloques: Friedman
- El muestreo probabilístico es condición para: Pruebas paramétricas y no paramétricas
- Si la H0 es falsa y como consecuencia del contraste se acepta, estamos en presencia de un error de tipo: II
- En las tablas de contingencia, la VD (Variable Dependiente) tiene que estar en las: Filas
- Una variable influenciada por el tratamiento es la: Dependiente
- Probabilidad de que un efecto presente sea detectable: Poder Estadístico
- El χ² (Chi-cuadrado) usado habitualmente se debe a: Pearson
- La lista de unidades de muestreo se llama: Marco muestral
- La prueba de Kruskal-Wallis es una extensión de la prueba de: Mann-Whitney U
- En muestreo, el tamaño de la muestra responde a la: Heterogeneidad
- El contraste de hipótesis simula una inferencia: Inductiva
- Para disminuir a la vez la probabilidad (p) del error tipo I y tipo II: No se puede (directamente sin aumentar el tamaño muestral o la magnitud del efecto)
Sección 2: Fundamentos de Probabilidad y Distribuciones
- El teorema de P(A∩B) = P(A) * P(B|A) es el teorema de la: Multiplicación
- Hallar el cardinal de un conjunto implica: Contar
- Si A ∩ B = ∅, los eventos se consideran mutuamente: Exclusivos
- Una distribución de probabilidad estadística es la distribución: Normal
- La distribución muestral es la distribución de probabilidad de un: Estadístico
- La varianza de una binomial siempre es ___ que su media: Menor
- Basado en que P(A) = 0.35, P(B) = 0.45 y P(A∩B) = 0.25, entonces P(A|B) es: 0.55
- Basado en que P(A) = 0.65, P(B) = 0.58 y P(A∪B) = 0.76, entonces P(A∩B) es: 0.47