04 Nov

Protocolos de Enlace y Manejo de Errores

Manejo de Errores en el Protocolo de Ventana Corrediza (Pipelining)

En el protocolo de ventana corrediza (Sliding Window), existen dos enfoques principales para manejar los errores durante el entubamiento (pipelining):

  1. Regresar N (Go-Back-N):
    • Si un marco llega con error o no llega, el receptor descarta ese marco y todos los siguientes.
    • No envía acuses de recibo (ACKs) para los marcos descartados.
    • El emisor deberá reenviar todos los marcos desde el erróneo en adelante.
    • Es simple de implementar, pero desperdicia ancho de banda si hay muchos errores.
  2. Repetición Selectiva (Selective Repeat):
    • El receptor guarda todos los marcos correctos que llegan después del incorrecto.
    • El emisor solo retransmite el marco erróneo, no todos los subsiguientes.
    • Es más eficiente en el uso del ancho de banda, pero requiere más memoria y una ventana receptora mayor.

Acceso al Medio y Estándares LAN

Funcionamiento de los Protocolos CSMA

Los protocolos de Acceso Múltiple por Detección de Portadora (CSMA) regulan cómo las estaciones acceden a un canal compartido. Sus variantes principales son:

CSMA Persistente-1
  • La estación escucha el canal.
  • Si está libre, transmite inmediatamente (con probabilidad 1).
  • Si está ocupado, espera hasta que se libere y luego transmite.
  • Si ocurre una colisión, espera un tiempo aleatorio y vuelve a intentar.
CSMA No Persistente
  • La estación escucha el canal.
  • Si está libre, transmite.
  • Si está ocupado, espera un tiempo aleatorio antes de volver a intentar (no lo monitorea constantemente).
  • Mejora la eficiencia al reducir colisiones, pero puede aumentar el retardo.
CSMA Persistente-p
  • Se aplica a canales ranurados (slotted channels).
  • Si el canal está libre, transmite con probabilidad p.
  • Con probabilidad q = 1 – p, espera a la siguiente ranura de tiempo.
  • Si el canal está ocupado, espera y aplica el algoritmo en la siguiente ranura.

Características del Estándar IEEE 802.3 (Ethernet)

El estándar IEEE 802.3 define la tecnología Ethernet y sus características clave incluyen:

  • Basado en el protocolo CSMA/CD persistente-1 (Acceso Múltiple por Detección de Portadora con Detección de Colisiones).
  • Originalmente operaba a 10 Mbps, con versiones posteriores de 100 Mbps (Fast Ethernet) y 1 Gbps (Gigabit Ethernet).
  • Soporta modo semidúplex (con colisiones) y dúplex total (sin colisiones).
  • Utiliza direcciones MAC de 48 bits.
  • Define marcos de tamaño variable.
  • Mantiene compatibilidad con versiones anteriores.

Tamaño Máximo de Datos en Token Bus (IEEE 802.4)

En el estándar Token Bus (IEEE 802.4), las estaciones están organizadas lógicamente como un anillo y transmiten al recibir el token (ficha). Cada marco puede transportar hasta 8182 bytes de datos.

Interconexión de Redes (Interredes)

Aspectos de Diferencia entre Interredes

Las interredes (redes interconectadas) pueden diferir significativamente en varios aspectos técnicos, incluyendo:

  • Servicio ofrecido.
  • Formato de trama.
  • Técnicas de modulación.
  • Tamaño máximo de los paquetes (MTU).
  • Tipo de conexión.
  • Esquema de direccionamiento.
  • Mecanismos de control de errores.
  • Mecanismos de control de flujo.
  • Control de congestión.
  • Soporte para multidifusión (multicasting).
  • Seguridad.

Definición y Uso de Puentes (Bridges)

Los puentes (bridges) son dispositivos esenciales para la interconexión de redes locales (LANs).

  • Nivel de Operación: Operan en la Capa de Enlace de Datos (Nivel 2 del modelo OSI).
  • Función: Se encargan de encaminar marcos entre distintas LANs, segmentando el tráfico y reduciendo la congestión.
  • Uso: Una organización necesita un puente cuando requiere conectar varias redes locales diferentes que pueden tener estándares distintos (por ejemplo, una LAN 802.3 con una 802.4).
  • Problemas que Resuelven: Manejan diferencias en el formato de marco, la tasa de datos y la longitud máxima de marco.
  • Tipos (Ejemplo): Los Puentes transparentes aprenden qué equipos están en cada LAN y reenvían los marcos solo cuando es necesario, basándose en las direcciones MAC.

Control de Tráfico y Enrutamiento

Diferencia entre Control de Flujo y Control de Congestionamiento

Aunque ambos son mecanismos de regulación del tráfico, actúan en diferentes niveles de la red:

Control de Flujo
Regula la velocidad de transmisión entre un emisor y un receptor específico, asegurando que el receptor no se sature. Opera típicamente en el nivel de enlace o transporte.
Control de Congestionamiento
Gestiona la cantidad de tráfico dentro de la red, evitando la sobrecarga de los enrutadores y los enlaces internos. Opera en el nivel de red.

En resumen: El Control de Flujo se enfoca en la comunicación punto a punto, mientras que el Control de Congestionamiento se enfoca en la capacidad global de la infraestructura de la red.

Algoritmo de Enrutamiento Basado en el Estado del Enlace (Link State)

El algoritmo de enrutamiento basado en el estado del enlace es un tipo de algoritmo dinámico que permite a cada enrutador construir un mapa completo de la topología de la red. El proceso consta de varios pasos:

Proceso de Descubrimiento y Distribución:

  1. Descubrimiento de Vecinos: Cada enrutador descubre a sus vecinos directos (usando paquetes HOLA).
  2. Medición de Costos: Mide el costo o retardo de cada enlace hacia sus vecinos (usando paquetes ECO).
  3. Creación del Paquete de Estado del Enlace (LSP): Crea un paquete con esta información (incluyendo número de secuencia y edad).
  4. Inundación (Flooding): Envía este paquete a todos los demás enrutadores de la red.
  5. Cálculo de Rutas: Utiliza el algoritmo de Dijkstra para calcular las rutas más cortas hacia todos los destinos, basándose en la información recopilada de todos los LSP.

Ejemplo de Formación de Paquetes de Estado del Enlace

Enrutamiento por el estado del enlace: (IMAGEN DE LA DERECHA)

A1f8m71nuST9AAAAAElFTkSuQmCC

(Referencia visual para la topología de red)

Datos de Enlaces y Costos:

  • Enrutador A: Detecta vecinos B (costo 2) y E (costo 5).
  • Enrutador B: Detecta A (costo 4), C (costo 2) y F (costo 6).
  • Enrutador C: Detecta B (costo 2), D (costo 3) y E (costo 1).
  • Enrutador D: Detecta C (costo 3) y F (costo 7).
  • Enrutador F: Detecta B (costo 6), D (costo 7) y E (costo 8).
  • Enrutador E: Detecta A (costo 5), C (costo 1) y F (costo 8).

Cada enrutador crea un paquete de estado del enlace con esta información y lo comparte con todos los demás mediante inundación. Una vez que todos tienen la información completa de la topología, utilizan el algoritmo de Dijkstra para calcular la mejor ruta a cada destino.

Fragmentación de Paquetes

Definición y Tipos de Fragmentación

La fragmentación es el proceso de dividir un paquete de datos grande en fragmentos más pequeños. Se utiliza cuando un paquete excede el Tamaño Máximo de Unidad de Transferencia (MTU) permitido por una red intermedia.

Tipos de Fragmentación

Fragmentación Transparente
  • Los fragmentos se recombinan en la pasarela de salida (gateway), antes de ingresar a la siguiente red.
  • Ventaja: Las redes intermedias no necesitan manejar los fragmentos.
  • Desventaja: Genera sobrecarga en la pasarela debido al proceso de reensamble.
Fragmentación No Transparente
  • Los fragmentos se tratan como paquetes independientes hasta que alcanzan el destino final.
  • El reensamble se realiza únicamente en el host receptor.
  • Ventaja: Permite usar múltiples pasarelas y rutas diferentes para los fragmentos.
  • Desventaja: Cada fragmento necesita su propia cabecera, lo que incrementa la carga total de la transmisión.

Deja un comentario