06 Nov

Conceptos Descriptivos y Distribución de Datos

Distribución de Datos

  • Distribución Normal: Se caracteriza por la **media** y la **desviación típica**.
  • Asimetría:
    • **Positiva** (o sesgo a la izquierda): La media es mayor que la mediana.
    • **Negativa** (o sesgo a la derecha): La media es menor que la mediana.

Curtosis: Grado de Apuntamiento

La curtosis mide cuán apuntada o aplanada está la distribución en comparación con la distribución normal.

  • Leptocúrtica: Distribución alta (más apuntada).
  • Mesocúrtica: Distribución normal.
  • Platicúrtica: Distribución baja (más aplanada).

Fundamentos de la Investigación Cuantitativa

Razonamientos

  • Inductivo: Va de lo particular a lo general (genera o analiza teorías).
  • Deductivo: Va de lo general a lo particular (prueba u observa hipótesis).

Población y Muestreo

  • Población: Conjunto de elementos con una o más características en común.
  • Muestra: Subconjunto de la población.
  • Muestreo: Proceso para extraer la muestra.

Tipos de Muestreo

  • Probabilístico: Selección basada en el **azar**.
  • No Probabilístico: Selección por **criterio** o conveniencia.

Hipótesis y Contraste

Una **hipótesis** es una respuesta tentativa a la pregunta de investigación que se verifica mediante el contraste de hipótesis.

  • Hipótesis de Investigación (H1): Afirmación de una relación o diferencia.
  • Hipótesis Nula (H0): Afirma que no hay relación o no hay diferencia.
  • Hipótesis Alternativa (Ha): Propone una relación de variables diferente a la inicial.

Regla de Decisión

Se utiliza el nivel crítico, de significancia o **valor “p”** (usualmente 0.05).

  • Si el valor p es **menor a 0.05**: Se **descarta H0** (Sí hay diferencia o relación).
  • Si el valor p es **mayor a 0.05**: Se **afirma H0** (No hay diferencia ni relación).

Modelos Estadísticos para Variables Continuas

El **análisis de normalidad** evalúa cómo difieren los datos actuales respecto a una distribución normal.

Variables Continuas

  • Para Relaciones: Se utiliza el análisis de tipo **regresión** y de **correlación** (R de Pearson y Rho de Spearman). Se usan para relacionar dos variables continuas.
  • Para Diferencias: Se utiliza el análisis de **promedios** (de dos grupos o más de dos grupos) y pruebas con varianzas iguales (Brown y Smythe; Barlett). Se usan para comparar una variable continua con una variable categórica.

Análisis de Correlación R de Pearson (r)

Mide el grado de **fuerza/magnitud** y **dirección** en la asociación lineal de dos variables. El signo indica si la relación es positiva (directa) o negativa (inversa). El rango va de -1 a 1.

Interpretación de rxy

  • 0.00 < rxy < 0.10: Correlación **nula**.
  • 0.10 – 0.30: Correlación **débil**.
  • 0.30 – 0.50: Correlación **moderada**.
  • 0.50 – 1.00: Correlación **fuerte**.

Nota: Siempre se debe verificar la dirección, la magnitud y la significancia.

Regresión Lineal

Predice el comportamiento de una **variable dependiente (VD)** (predicha) a partir de una **variable independiente (VI)** (predictora). (Importante: La regresión predice, pero no establece causalidad).

Regresión Lineal Simple

Utiliza una sola variable predictora. Los criterios clave son:

  • El **coeficiente de determinación (R2)** debe ser alto (idealmente +60%).
  • El **error estándar de medición** debe ser pequeño (idealmente menor a 1.0).
  • La prueba F debe ser estadísticamente **significativa** (p ≤ 0.05).
  • El **coeficiente de regresión (B)** de la variable predictora debe ser significativo (p < 0.05).

Regresión Lineal Múltiple

Utiliza muchas variables predictoras. Implica la validez predictiva de varios predictores sobre una variable futura.

Diferencia de Promedios

Diferencia de Promedio con Dos Grupos (1 Variable Continua y 1 Categórica)

  • Con Normalidad: **T de Student** y Pruebas Pareadas.
  • Sin Normalidad: **Wilcoxon** y **Mann-Whitney**.

T de Student

Conjunto de curvas utilizadas para muestras de 30 o menos participantes. Requiere valores **independientes**, continuos, aleatorios y en **normalidad**. Indica si un promedio es diferente a lo hipotetizado o si hay diferencia de media entre grupos.

Prueba T para Muestras Relacionadas (Pareadas)

Se utiliza cuando los datos vienen en pareja por cada sujeto (ej. un pre-test y un post-test). Requiere una muestra representativa (20 o más personas, siendo las mismas personas en ambos grupos de comparación), medición continua, normalidad y observación independiente.

Interpretación de la Tabla de Muestras Pareadas

Se debe analizar:

  • El valor p para determinar la **significancia estadística**.
  • La **diferencia de medias** para la dirección y magnitud del cambio.
  • El **error estándar (EE) de la diferencia** para la precisión del estimado.
  • El **tamaño del efecto** (d de Cohen) para evaluar cuán grande fue el cambio entre las dos medias.
Valores d de Cohen
  • 0.20: Cambios **leves**.
  • 0.50: Cambios **visibles** pero poco relevantes (moderados).
  • 0.80: Cambio **fuerte** (grande).

Diferencia de Promedio con Más de Dos Grupos

  • Con Normalidad: **ANOVA** (Análisis de Varianza).
  • Sin Normalidad: **Kruskal Wallis**.

ANOVA (Análisis de Varianza)

Evalúa la diferencia de medias entre varios grupos.

  • H0: Todos los grupos tienen el mismo promedio.
  • Ha: No todos los grupos tienen el mismo promedio.

Requiere muestra aleatoria, grupos independientes, una variable continua dependiente y una variable categórica independiente.

ANOVA de Medidas Repetidas

Mide las mismas variables en los mismos participantes, pero en dos o más momentos o condiciones (pre, durante y post).

Pruebas de Normalidad

Prueba de Kolmogorov-Smirnov

Verifica si existe **normalidad** o asimetría en la distribución de los datos.

Prueba de Shapiro-Wilk

Similar a Kolmogorov-Smirnov, pero se recomienda para muestras pequeñas (máximo 30-50 participantes).

Regla de Decisión para Normalidad
  • Si se **mantiene H0**: Hay **normalidad**.
  • Si se **rechaza H0**: **No hay normalidad**.

Resumen de Selección de Pruebas Estadísticas

  • Para **una variable categórica aislada**: Usar **Estadística Descriptiva** con frecuencias y porcentajes (en tablas, gráficos de sectores y barras).
  • Para **una variable continua aislada**: Usar **media** y **desviación estándar** (en tablas e histogramas).
  • Para **relacionar dos variables de escala (continuas)**: Usar Estadística Descriptiva e Inferencial con **Pearson** (en tablas y gráficos de dispersión).
  • Para **relacionar dos variables nominales**: Usar **tabla de contingencia**, gráficos y porcentajes.
  • Para **relacionar una variable de escala (continua) con una nominal (categórica)**: Usar diferencia o comparación de promedios (con tablas, gráficos de línea y barra).

Ejemplos de Interpretación de Resultados

h3>Prueba T de Student para Muestras Independientes

Existe una diferencia estadísticamente significativa en las tres dimensiones de M. Entre X e Y, X presenta una media ligeramente superior que L. Por el contrario, en X presentan una media ligeramente superior que las Y, siendo estas diferencias estadísticamente significativas.

Correlación de Pearson (r)

Todas las dimensiones de K presentan una correlación estadísticamente muy significativa entre sí. Todas las correlaciones son **positivas**. La relación más fuerte se observa entre las variables X, Y y Z con un coeficiente de r = 0,599, lo que indica una relación positiva de **fuerza moderada/alta**.

Prueba T de Student para Muestras Pareadas

Existe una diferencia estadísticamente muy significativa en la puntuación de X (antes) y el Momento 2 (después) (p < 0,001). El promedio de diferencias es negativo (-5,7), lo que indica que la puntuación **aumentó significativamente** en el Momento 2. Dado que un mayor Afrontamiento al Estrés es una mejora, la intervención tuvo un **efecto positivo y significativo**.

Modelo de Regresión Múltiple

El modelo de regresión múltiple que utiliza Afecto Positivo, Afecto Negativo y R.R. para predecir X es estadísticamente muy significativo (F = 77,0; p < 0,001). En conjunto, estas variables explican el **43,7% de la varianza total** del bienestar Mental (R2 ajustado). Las tres variables predictoras son individualmente significativas en el modelo (todos los p < 0,001), siendo la variable R.R. la que presenta el **mayor impacto en la predicción**.

Deja un comentario