domingo, 2 de agosto de 2009

Teoría de la información

Teoría de la información es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella: canales, compresión de datos, criptografía y temas relacionados. A partir de la acelerada difusión y especialización que experimentan los medios de comunicación en el procesamiento y transmisión de información durante la primera mitad de nuestro siglo, se desarrolla el primer modelo científico del proceso de comunicación conocido como la Teoría de la Información o Teoría Matemática de la Comunicación. Específicamente, se desarrolla en el área de la telegrafía donde surge la necesidad de determinar, con la máxima precisión, la capacidad de los diferentes sistemas de comunicación para transmitir información.

Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado “Una teoría matemática de la comunicación”.

Cuando en un texto escrito en español y parcialmente oculto encontramos que cierta palabra empieza por una letra digamos C tenemos cierta información sobre ante qué posible palabra estamos. Si la primera letra es en vez de la C una X tenemos una mejor pista para adivinar de qué palabra se trata. La teoría información investiga la probabilidad de sucesos inciertos y trata de cuantificar numéricamente cuanta información aporta cada pista o hecho conocido que ayuda a reducir la incertidumbre. Por eso la información encerrada en un cierto "pedazo de conocimiento" es una función de las probabilidades de cada suceso posible en un evento incierto

La teoría de Shannon fue creada en 1940 por el por el ingeniero Claude E. Shannon, Los problemas que plantea Shannon, tienen que ver con la cantidad de información, la capacidad del canal de comunicación, el proceso de codificación que puede utilizarse para cambiar el mensaje en una señal y los efectos del "ruido". Pero no se refiere a las personas como protagonistas de la comunicación, sino al proceso desde la perspectiva de:

  • Sus aspectos medibles.
  • A las condiciones idóneas de transmisión de información entre máquinas.
  • Al cálculo de la pérdida de información transmitida a través de un canal.

Su teoría se utiliza para medir la información y su contenido. El contenido de la información de un suceso es igual a una función decreciente de la probabilidad de su aparición. Shannon utilizó el algoritmo de la inversa de la probabilidad.

Modelo de comunicación

El modelo comunicacional desarrollado por Shannon y Weaver se basa en un sistema de comunicación general que puede ser representado de la siguiente manera:



La teoría de Shannon está definida de la siguiente manera:

I = 3.32 B log( 1+ S/N )

I = Capacidad de la información

B = Ancho de Banda (Hertz)

S = Relación de Potencia de señal a Ruido (Sin unidades)

N = Relación de Potencia de señal a Ruido (Sin unidades)



Referencias:
http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n
http://docente.ucol.mx/al021593/teorias.htm
http://www.sanalejandro.cult.cu/doc/teoriainformacion.doc

No hay comentarios:

Publicar un comentario