domingo, 20 de enero de 2008

Teoría de la información.

Origen.

Claude Elwood Shannon publica en el Bell System Technical Journal en 1948 un artículo titulado
"A mathematical theory of communication".

En este trabajo se demostró que todas las fuentes de información
(telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras de televisión, etc, )
se pueden medir y que los canales de comunicación tienen una unidad de medida
similar. Mostró también que la información se puede transmitir sobre un canal si, y solamente si, la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.

Información.

El concepto de información supone dos objetos:
  • La fuente de información (Tx) y
  • El destinatario de la información (Rx)
Fuente de información.

Una fuente de información emite secuencias de símbolo pertenecientes a un conjunto completo denominado alfabeto Fuente S={S1,S2, ..., Sq} siendo q el número de símbolos de la fuente.
La fuente de información está caracterizado por el alfabeto fuente y por la probabilidad con que se emite cada símbolo.

Fuente de información de memoria nula. Los símbolos son estadísticamente independientes.

Entropía.

De una manera informal podemos definir la entropía como la cantidad de información contenida en un mensaje, también es la medida de la cantidad de "ruido" que contiene y por tanto nos indica el límite teórico para la compresión de datos.

Definición formal. Sea E un suceso, y P(E) la probabilidad de que se presente el suceso. Cuando E ocurre, se dice que hemos recibido I(E)=log [1/P(E)] unidades de información.






Introducción a la criptología.

Criptología.
Definición.


La criptología es el estudio de los criptosistemas: sistemas que ofrecen medios seguros de comunicación en los que el emisor oculta o cifra el mensaje antes de transmitirlo para que sólo un receptor autorizado (o nadie) pueda descifrarlo. Sus áreas principales de interés son la criptografía y el criptoanálisis, pero también se incluye la esteganografía como parte de esta ciencia aplicada. En tiempos recientes, el interés por la criptología se ha extendido también a otras aplicaciones aparte de la comunicación segura de información y, actualmente, una de las aplicaciones más extendidas de las técnicas y métodos estudiados por la es la autenticación de información digital (también llamada firma digital).


La criptografía es el arte o ciencia de cifrar y descifrar información utilizando técnicas que hagan posible el intercambio de mensajes de manera segura que sólo puedan ser leídos por las personas a quienes van dirigidos.

El criptoanálisis es el estudio de los métodos para obtener el sentido de una información cifrada, sin acceso a la información secreta requerida para obtener este sentido normalmente.

Raíces etimológicas.

Criptología del griego kryptos, «ocultar», y logos, «tratadoc».
Criptografía del griego kryptos, «ocultar», y graphos, «escribir», literalmente «escritura oculta».
Criptoanálisis del griego kryptos, "escondido" y analýein, "desatar".


¿Arte o ciencia?

La definición clásica de criptografía la definía como el arte de escribir mensajes en clave secreta o enigmáticamente, pero a partir de 1949, año en el que Shanon publica "Teoría de las comunicaciones secretas" la criptografía es considerada una ciencia aplicada, debido a su relación con otras ciencias, como la estadística, la teoría de números, la teoría de la información y la teoría de la complejidad computacional y los sistemas de comunicación.