06 Nov
Conceptos Descriptivos y Distribución de Datos
Distribución de Datos
- Distribución Normal: Se caracteriza por la **media** y la **desviación típica**.
- Asimetría:
- **Positiva** (o sesgo a la izquierda): La media es mayor que la mediana.
- **Negativa** (o sesgo a la derecha): La media es menor que la mediana.
Curtosis: Grado de Apuntamiento
La curtosis mide cuán apuntada o aplanada está la distribución en comparación con la distribución normal.
- Leptocúrtica: Distribución alta (más apuntada).
- Mesocúrtica: Distribución normal.
- Platicúrtica: Distribución baja (más aplanada).
Fundamentos de la Investigación Cuantitativa
Razonamientos
- Inductivo: Va de lo particular a lo general (genera o analiza teorías).
- Deductivo: Va de lo general a lo particular (prueba u observa hipótesis).
Población y Muestreo
- Población: Conjunto de elementos con una o más características en común.
- Muestra: Subconjunto de la población.
- Muestreo: Proceso para extraer la muestra.
Tipos de Muestreo
- Probabilístico: Selección basada en el **azar**.
- No Probabilístico: Selección por **criterio** o conveniencia.
Hipótesis y Contraste
Una **hipótesis** es una respuesta tentativa a la pregunta de investigación que se verifica mediante el contraste de hipótesis.
- Hipótesis de Investigación (H1): Afirmación de una relación o diferencia.
- Hipótesis Nula (H0): Afirma que no hay relación o no hay diferencia.
- Hipótesis Alternativa (Ha): Propone una relación de variables diferente a la inicial.
Regla de Decisión
Se utiliza el nivel crítico, de significancia o **valor “p”** (usualmente 0.05).
- Si el valor p es **menor a 0.05**: Se **descarta H0** (Sí hay diferencia o relación).
- Si el valor p es **mayor a 0.05**: Se **afirma H0** (No hay diferencia ni relación).
Modelos Estadísticos para Variables Continuas
El **análisis de normalidad** evalúa cómo difieren los datos actuales respecto a una distribución normal.
Variables Continuas
- Para Relaciones: Se utiliza el análisis de tipo **regresión** y de **correlación** (R de Pearson y Rho de Spearman). Se usan para relacionar dos variables continuas.
- Para Diferencias: Se utiliza el análisis de **promedios** (de dos grupos o más de dos grupos) y pruebas con varianzas iguales (Brown y Smythe; Barlett). Se usan para comparar una variable continua con una variable categórica.
Análisis de Correlación R de Pearson (r)
Mide el grado de **fuerza/magnitud** y **dirección** en la asociación lineal de dos variables. El signo indica si la relación es positiva (directa) o negativa (inversa). El rango va de -1 a 1.
Interpretación de rxy
- 0.00 < rxy < 0.10: Correlación **nula**.
- 0.10 – 0.30: Correlación **débil**.
- 0.30 – 0.50: Correlación **moderada**.
- 0.50 – 1.00: Correlación **fuerte**.
Nota: Siempre se debe verificar la dirección, la magnitud y la significancia.
Regresión Lineal
Predice el comportamiento de una **variable dependiente (VD)** (predicha) a partir de una **variable independiente (VI)** (predictora). (Importante: La regresión predice, pero no establece causalidad).
Regresión Lineal Simple
Utiliza una sola variable predictora. Los criterios clave son:
- El **coeficiente de determinación (R2)** debe ser alto (idealmente +60%).
- El **error estándar de medición** debe ser pequeño (idealmente menor a 1.0).
- La prueba F debe ser estadísticamente **significativa** (p ≤ 0.05).
- El **coeficiente de regresión (B)** de la variable predictora debe ser significativo (p < 0.05).
Regresión Lineal Múltiple
Utiliza muchas variables predictoras. Implica la validez predictiva de varios predictores sobre una variable futura.
Diferencia de Promedios
Diferencia de Promedio con Dos Grupos (1 Variable Continua y 1 Categórica)
- Con Normalidad: **T de Student** y Pruebas Pareadas.
- Sin Normalidad: **Wilcoxon** y **Mann-Whitney**.
T de Student
Conjunto de curvas utilizadas para muestras de 30 o menos participantes. Requiere valores **independientes**, continuos, aleatorios y en **normalidad**. Indica si un promedio es diferente a lo hipotetizado o si hay diferencia de media entre grupos.
Prueba T para Muestras Relacionadas (Pareadas)
Se utiliza cuando los datos vienen en pareja por cada sujeto (ej. un pre-test y un post-test). Requiere una muestra representativa (20 o más personas, siendo las mismas personas en ambos grupos de comparación), medición continua, normalidad y observación independiente.
Interpretación de la Tabla de Muestras Pareadas
Se debe analizar:
- El valor p para determinar la **significancia estadística**.
- La **diferencia de medias** para la dirección y magnitud del cambio.
- El **error estándar (EE) de la diferencia** para la precisión del estimado.
- El **tamaño del efecto** (d de Cohen) para evaluar cuán grande fue el cambio entre las dos medias.
Valores d de Cohen
- 0.20: Cambios **leves**.
- 0.50: Cambios **visibles** pero poco relevantes (moderados).
- 0.80: Cambio **fuerte** (grande).
Diferencia de Promedio con Más de Dos Grupos
- Con Normalidad: **ANOVA** (Análisis de Varianza).
- Sin Normalidad: **Kruskal Wallis**.
ANOVA (Análisis de Varianza)
Evalúa la diferencia de medias entre varios grupos.
- H0: Todos los grupos tienen el mismo promedio.
- Ha: No todos los grupos tienen el mismo promedio.
Requiere muestra aleatoria, grupos independientes, una variable continua dependiente y una variable categórica independiente.
ANOVA de Medidas Repetidas
Mide las mismas variables en los mismos participantes, pero en dos o más momentos o condiciones (pre, durante y post).
Pruebas de Normalidad
Prueba de Kolmogorov-Smirnov
Verifica si existe **normalidad** o asimetría en la distribución de los datos.
Prueba de Shapiro-Wilk
Similar a Kolmogorov-Smirnov, pero se recomienda para muestras pequeñas (máximo 30-50 participantes).
Regla de Decisión para Normalidad
- Si se **mantiene H0**: Hay **normalidad**.
- Si se **rechaza H0**: **No hay normalidad**.
Resumen de Selección de Pruebas Estadísticas
- Para **una variable categórica aislada**: Usar **Estadística Descriptiva** con frecuencias y porcentajes (en tablas, gráficos de sectores y barras).
- Para **una variable continua aislada**: Usar **media** y **desviación estándar** (en tablas e histogramas).
- Para **relacionar dos variables de escala (continuas)**: Usar Estadística Descriptiva e Inferencial con **Pearson** (en tablas y gráficos de dispersión).
- Para **relacionar dos variables nominales**: Usar **tabla de contingencia**, gráficos y porcentajes.
- Para **relacionar una variable de escala (continua) con una nominal (categórica)**: Usar diferencia o comparación de promedios (con tablas, gráficos de línea y barra).
Ejemplos de Interpretación de Resultados
h3>Prueba T de Student para Muestras Independientes
Existe una diferencia estadísticamente significativa en las tres dimensiones de M. Entre X e Y, X presenta una media ligeramente superior que L. Por el contrario, en X presentan una media ligeramente superior que las Y, siendo estas diferencias estadísticamente significativas.
Correlación de Pearson (r)
Todas las dimensiones de K presentan una correlación estadísticamente muy significativa entre sí. Todas las correlaciones son **positivas**. La relación más fuerte se observa entre las variables X, Y y Z con un coeficiente de r = 0,599, lo que indica una relación positiva de **fuerza moderada/alta**.
Prueba T de Student para Muestras Pareadas
Existe una diferencia estadísticamente muy significativa en la puntuación de X (antes) y el Momento 2 (después) (p < 0,001). El promedio de diferencias es negativo (-5,7), lo que indica que la puntuación **aumentó significativamente** en el Momento 2. Dado que un mayor Afrontamiento al Estrés es una mejora, la intervención tuvo un **efecto positivo y significativo**.
Modelo de Regresión Múltiple
El modelo de regresión múltiple que utiliza Afecto Positivo, Afecto Negativo y R.R. para predecir X es estadísticamente muy significativo (F = 77,0; p < 0,001). En conjunto, estas variables explican el **43,7% de la varianza total** del bienestar Mental (R2 ajustado). Las tres variables predictoras son individualmente significativas en el modelo (todos los p < 0,001), siendo la variable R.R. la que presenta el **mayor impacto en la predicción**.

Deja un comentario