21 Sep

Variables Aleatorias

Una variable aleatoria es un valor numérico que puede cambiar según el resultado de un experimento al azar. No sigue un patrón fijo, por eso se le llama “aleatoria”.

Tipos de Variables Aleatorias

Variables Aleatorias Discretas

Son aquellas que solo pueden tomar ciertos valores puntuales, como números enteros. Ejemplo: el número de hijos de una familia (0, 1, 2, 3…).

Variables Aleatorias Continuas

Son las que pueden tomar infinitos valores dentro de un intervalo. Ejemplo: la estatura de una persona (1.70 m, 1.701 m, 1.7012 m, etc.).

Conceptos Fundamentales de Probabilidad

Definición de Probabilidad

La probabilidad es una medida numérica que nos indica qué tan posible es que ocurra un evento, expresada como un número entre 0 y 1. Si el valor está cerca de 0, significa que el evento es muy poco probable; si está cerca de 1, significa que es casi seguro que ocurrirá.

Distribución de Probabilidad Discreta

Es una tabla o lista que muestra todos los valores que puede tomar una variable aleatoria discreta y la probabilidad de cada uno.

Valor Esperado (Media)

Es como el “promedio teórico” de los resultados de un experimento. Se calcula multiplicando cada posible valor por su probabilidad y sumando todos los productos. Sirve para estimar lo que se espera en promedio en un experimento a largo plazo.

Varianza y Desviación Estándar

Son medidas que indican qué tanto se dispersan los valores de una variable aleatoria respecto a su promedio (valor esperado). La varianza es el promedio de los cuadrados de las diferencias entre cada valor y la media, y la desviación estándar es simplemente la raíz cuadrada de la varianza, lo que la hace más interpretable en las unidades originales de la variable.

Distribuciones de Probabilidad Discretas

Distribución Binomial

Se usa cuando tenemos varios experimentos (ensayos de Bernoulli) que solo pueden dar dos resultados: éxito o fracaso. Ejemplo: lanzar una moneda varias veces y contar el número de caras.

Características de la Distribución Binomial:

  • Cada experimento tiene solamente dos resultados posibles: éxito o fracaso.
  • Los resultados de cada experimento pueden obtenerse mediante dos métodos de muestreo: con reemplazo de una población finita o sin reemplazo de una población infinita.
  • La probabilidad de que un resultado se clasifique como éxito se denota con p, y la de fracaso con q (donde q = 1 – p).
  • Un resultado particular, ya sea éxito o fracaso, de cualquier experimento es independiente del resultado que se dé en cualquier otro experimento.

Distribución Hipergeométrica

Se aplica cuando se toma una muestra de una población finita sin reemplazo, es decir, los elementos que se van seleccionando ya no se regresan a la población. Ejemplo: sacar bolas de una urna sin volver a meterlas.

Condiciones para la Distribución Hipergeométrica:

  • Se selecciona una muestra de una población finita sin reposición.
  • El tamaño de la muestra n es mayor que el 5% del tamaño de la población (N).

Distribución de Poisson

Sirve para contar cuántas veces ocurre un evento raro en un periodo de tiempo, espacio o área definidos. Ejemplos: número de clientes que llegan a una tienda en una hora, número de accidentes en una carretera en un día, o número de imperfecciones por centímetro cuadrado en los toldos de las carrocerías de automóviles nuevos.

Hipótesis (Condiciones) para la Distribución de Poisson:

  • Los eventos suceden uno a la vez, es decir, la probabilidad de que ocurran dos o más eventos en el mismo instante es cero.
  • La probabilidad de ocurrencia del evento de interés es constante para dos intervalos distintos de tiempo, espacio o volumen.
  • El número de eventos por tiempo, espacio o volumen se mantiene constante, lo que implica que el número esperado de eventos en cualquier intervalo de tiempo, espacio o volumen es el mismo en todos ellos.
  • La ocurrencia de un evento de interés en un lapso de tiempo, espacio o volumen es independiente de su ocurrencia en algún otro lapso de tiempo, espacio o volumen.

Distribuciones de Probabilidad Continuas

Distribución Uniforme

En esta distribución, todos los valores dentro de un intervalo específico tienen la misma probabilidad de ocurrir. Ejemplo: elegir al azar un número real entre 0 y 10.

Distribución Exponencial

Se usa para medir el tiempo que transcurre entre la ocurrencia de un evento y otro en un proceso de Poisson. Ejemplo: tiempo de espera entre llamadas consecutivas en un call center.

Distribución Normal (Gaussiana)

Es considerada la distribución de probabilidad más importante en estadística. Tiene una característica forma de campana, es simétrica y en ella, la media, la mediana y la moda son iguales. Muchos fenómenos de la vida real siguen esta distribución, como la estatura o el peso de las personas.

Características de la Curva Normal:

  • La curva normal tiene un perfil parecido al de una campana y presenta un solo pico en el centro exacto de la distribución.
  • Si se traza una línea vertical desde el pico hasta la base de la distribución, se observa que esta se divide en dos partes iguales, lo que indica su simetría.
  • La media aritmética, la mediana y la moda son iguales y se encuentran en el centro de esta distribución.
  • La curva normal decrece uniformemente en ambas direcciones a partir de su valor central, acercándose al eje horizontal sin tocarlo (asintótica).

Estimación e Inferencia Estadística

Intervalo de Confianza

En lugar de dar un solo número (estimación puntual), un intervalo de confianza proporciona un rango de valores dentro del cual creemos que se encuentra el valor real de un parámetro poblacional, con un cierto nivel de seguridad o confianza (por ejemplo: “con 95% de confianza, el promedio poblacional está entre 70 y 75”).

Se utiliza cuando:

  • Se conoce la desviación estándar poblacional y la muestra es grande o la población es normal (se usa la distribución Z).
  • No se conoce la desviación estándar poblacional y la muestra es pequeña (se usa la distribución t de Student).

Distribución t de Student

Se utiliza para construir intervalos de confianza y realizar pruebas de hipótesis cuando la muestra es pequeña (generalmente n ≤ 30) y no se conoce la desviación estándar de la población. Es una alternativa a la distribución normal en estas circunstancias.

Estimadores Estadísticos

¿Qué es un Estimador?

Un estimador es una medida calculada a partir de los datos de una muestra, cuyo propósito es aproximar o inferir un valor desconocido de un parámetro de toda la población.

Características de un Buen Estimador

  • Insesgado: Un estimador es insesgado si, en promedio, su valor esperado es igual al parámetro poblacional que se desea estimar. Es decir, no se aleja sistemáticamente del valor real.
  • Eficiente: Un estimador es eficiente si tiene una menor varianza (menor error) en comparación con otros estimadores insesgados para el mismo parámetro.
  • Consistente: Un estimador es consistente si, a medida que el tamaño de la muestra aumenta, el estimador se acerca cada vez más al valor real del parámetro poblacional.
  • Suficiente: Un estimador es suficiente si utiliza toda la información relevante contenida en la muestra para estimar el parámetro, sin perder datos importantes.

Deja un comentario