21 Abr
Originalidad, Banalidad y Redundancia en la Comunicación
La redundancia es lo que permite reconstruir la información y ayuda a entenderla. En la comunicación, operamos entre dos polos:
- Originalidad: Trabajar con el máximo de información posible, hasta el límite de lo inteligible.
- Banalidad: Redundancia extrema, muy poca información nueva.
Estos conceptos siempre estarán referidos al contexto comunicativo específico. El objetivo es ofrecer el máximo de información posible sin que deje de ser inteligible.
Influencia del Soporte y el Público
El soporte donde está la información (radio, TV, periódico) marca el grado de originalidad o repetición (redundancia) con el que se presenta dicha información. Ejemplo: el periódico permite más originalidad porque el lector puede volver a leerlo; en la radio, puede haber más banalidad porque el mensaje es efímero y no se puede volver a oír fácilmente.
También depende del público: si se dirige a un público experto, no es necesario repetir tanto; si es un público general, es necesario repetir más. Un discurso que es banal para unas personas puede no serlo para otras.
Entropía en la Teoría de la Información
Claude Shannon llama entropía a la medida de la incertidumbre o la información asociada a una fuente de mensajes.
La probabilidad que interviene en su cálculo es a priori. Existe una analogía con la termodinámica, que estudia los procesos irreversibles donde la entropía tiende al desorden. En la teoría de la información, la entropía es una metáfora de la entropía física; ambas miden una forma de ‘desorden’, aleatoriedad o incertidumbre.
Entropía de un Sistema Informativo
Los elementos de la información encuentran un análogo en la termodinámica con el concepto de entropía.
Definición de Entropía
Se mide por el grado de azar o incertidumbre de una situación. En física, describe la tendencia de los sistemas a volverse menos organizados y más aleatorios. En comunicación, la información se mide por la entropía, ya que se asocia al grado de libertad de elección al construir mensajes.
Entropía Relativa
Es la relación existente entre la entropía real de una fuente y la entropía máxima posible que podría tener.
La Teoría de la Información como Campo Científico: Fundamentos Teóricos y Metodológicos
En cuanto a la metodología de investigación en este campo, se establecen dos tipologías principales de estudios:
- Estudios teóricos: Incluyen categorías como conceptuales, ilustrativos y de conceptos aplicados.
- Análisis empíricos: Formados por estudios de casos, trabajo de campo, experimentos de campo y de laboratorio.
El Modelo de Shannon y Weaver
El modelo comunicacional desarrollado por Shannon y Weaver se basa en un sistema de comunicación general que puede ser representado con los siguientes componentes:
- Fuente de información: Selecciona el mensaje deseado de un conjunto de mensajes posibles.
- Transmisor: Transforma o codifica esta información en una forma apropiada para el canal.
- Señal: Mensaje codificado por el transmisor.
- Canal: Medio a través del cual las señales son transmitidas al punto de recepción.
- Fuente de ruido: Conjunto de distorsiones o adiciones no deseadas por la fuente de información que afectan a la señal. Pueden consistir en distorsiones del sonido (radio, teléfono), distorsiones de la imagen (TV), errores de transmisión (telégrafo), etc.
- Receptor: Decodifica o vuelve a transformar la señal transmitida en el mensaje original (o una aproximación), haciéndolo llegar a su destino.
- Destino: Entidad (persona o cosa) a la que se dirige el mensaje.
Este sistema de comunicación es lo suficientemente amplio como para incluir diversos contextos comunicativos (conversación, TV, danza, etc.).
Ejemplo del Modelo en la Radio
La fuente de información corresponde a la persona que habla por el micrófono. El mensaje son las palabras y sonidos que esta persona emite. El micrófono y el equipo electrónico son el transmisor que transforma el mensaje en ondas electromagnéticas (la señal). El espacio entre antenas es el canal. Las interferencias atmosféricas o técnicas son la fuente de ruido. El aparato de radio es el receptor, y el sonido que emite es el mensaje recobrado. Las personas que escuchan son los destinatarios.
Enfoque Cuantitativo
Es importante considerar que el problema del significado del mensaje no es relevante en el núcleo de este modelo. El interés principal de la Teoría de la Información se centra en la capacidad y fidelidad para transmitir información en diferentes sistemas de comunicación. El mensaje podría haber sido una secuencia de letras sin significado, y el problema de cuánta información se transmite seguiría presente. En un sentido amplio, la Teoría de la Información trata sobre la cantidad de información que es transmitida por la fuente al receptor, sin considerar el significado o propósito. No interesa tanto la pregunta «¿Qué tipo de información?» sino más bien «¿Cuánta información?» transmite la fuente.
Codificación en Canales Silenciosos y Ruidosos
Shannon y Weaver, en La Teoría Matemática de la Comunicación, consideran la codificación en dos categorías:
- Canales silenciosos: Se busca la forma estadísticamente más corta (eficiente) de codificar el mensaje para su transmisión, haciendo abstracción del problema de la distorsión por ruido.
- Canales ruidosos: Se busca codificar el mensaje (también de forma eficiente) de manera que sea posible recuperar el mensaje correcto en el receptor, aunque haya sido afectado por el ruido durante la transmisión.
El Concepto de Información
En la Teoría Matemática de la Información, la información se define como el grado de libertad (o número de opciones) de una fuente para elegir un mensaje de un conjunto de posibles mensajes.
Información e Incertidumbre
La información siempre aporta conocimiento y reduce la incertidumbre (sobre lo que ocurre en el mundo, etc.). Cuantas más posibilidades existen para describir la realidad, más significativa (en términos de información) será la opción elegida al reducir más alternativas.
Según William Ross Ashby, la información es aquello que reduce la incertidumbre y aporta conocimiento. Algunos autores se centran más en medir la cantidad de información que en definirla conceptualmente. Existen dificultades para definir la información de forma universalmente aceptada, ya que términos como «aquello» pueden ser indefinidos. La definición debe tener un carácter general.
Tener en cuenta las reglas de un sistema permite valorar el número de mensajes posibles y, por tanto, la información asociada a cada elección.
El concepto de información presupone la existencia de duda o incertidumbre. La incertidumbre implica la existencia de diferentes alternativas que deben ser elegidas, seleccionadas o discriminadas. Estas alternativas se refieren a cualquier conjunto de signos construidos para la comunicación (letras, palabras, números, ondas, etc.). En este contexto, las señales contienen información en virtud de su potencial para permitir elecciones. Estas señales operan sobre las alternativas que conforman la incertidumbre del receptor, proporcionando la capacidad de seleccionar o discriminar entre ellas.
Gramática Generativa
Analizando los elementos mínimos y las reglas que los combinan (como en la gramática generativa), se puede evaluar la estructura y las posibilidades combinatorias del lenguaje, lo cual está relacionado con la entropía y la redundancia del sistema.
Probabilidad e Información
La información se vincula estrechamente con la incertidumbre y, por tanto, con la probabilidad.
La probabilidad, aunque es un concepto matemático, puede interpretarse de diversas maneras:
- Estadística: Frecuencia de aparición en un gran número de casos.
- Pronósticos: Asignación de un grado de incertidumbre a eventos futuros.
- Probabilidad lógica: Basada en el razonamiento y conocimiento previo (ejemplo: una quiniela, considerando factores del partido).
- Probabilidad subjetiva: Basada en creencias personales o intuiciones (ejemplo: juego de chinos, especulaciones bursátiles).
Probabilidad en Sistemas Simbólicos
Cualquier discurso comunicativo es una secuencia de elementos donde la aparición de cada uno está influenciada por los anteriores (dependencias estadísticas). Por ejemplo, la probabilidad de ciertas secuencias de letras en español (como ‘qu’) es alta, mientras que otras (como ‘xq’) es prácticamente nula. La información aportada por un elemento, en términos de probabilidad, debe vincularse con los elementos precedentes en la secuencia. La información está vinculada a la totalidad del sistema simbólico; se puede hablar de la información media (entropía) del sistema.
Analogía con la Entropía Física
La fórmula matemática para medir la información (entropía de Shannon) es formalmente análoga a la de la entropía en física (Boltzmann, Gibbs). Esto vincula matemáticamente la información con la incertidumbre y el grado de organización (o desorden) del sistema simbólico. Resumen: A partir de esta semejanza formal, a veces se han extrapolado conceptos entre la física y la teoría de la comunicación social. En este contexto, más información se asocia a mayor incertidumbre o ‘desorden’ (mayor número de opciones posibles).
Redundancia en la Comunicación (Revisión)
La redundancia implica repetición o predictibilidad en el mensaje. Es una característica inherente al uso de cualquier sistema simbólico, y representa la parte del mensaje que no aporta nueva información (reduce la incertidumbre). Es, en cierto sentido, el concepto opuesto a la cantidad de información (o entropía).
Si la entropía máxima (Hmax) representa el 100% de la capacidad de información de un sistema, y la entropía real (Hreal) es la información efectivamente transmitida por símbolo en promedio, la redundancia (R) se puede expresar como: R = 1 – (Hreal / Hmax). La redundancia es la fracción de la capacidad del canal que no se utiliza para transmitir nueva información, pero que contribuye a la fiabilidad y comprensión.
Redundancia y Reglas Lingüísticas
Un sistema lingüístico con menos reglas (menos restricciones) permitiría, teóricamente, transmitir la máxima información posible por símbolo (máxima entropía). Sin embargo, un sistema sin reglas sería caótico e incomprensible, imposibilitando la comunicación efectiva. Por lo tanto, a más reglas (mayor predictibilidad), menor información (entropía) por símbolo, y viceversa. La redundancia introducida por las reglas es necesaria para la comprensión y la corrección de errores.
Límites de la Comunicación y Redundancia
La comunicación puede verse afectada en los límites:
- Incumplimiento de reglas: No conocer bien la lengua (o violar sus reglas) dificulta la comprensión, aunque puede seguir existiendo comunicación parcial gracias a la redundancia inherente.
- Sentido figurado: Aunque a menudo sigue reglas (de género literario, culturales), en sus formas más creativas puede suponer una violación aparente de las reglas semánticas o sintácticas habituales, jugando con la originalidad (alta información, baja predictibilidad) frente a la redundancia esperada.
Deja un comentario