Usuario:Lidia la cal/Taller

De Wikipedia, la enciclopedia libre

En Teoría de la información, el teorema de codificación de fuentes, primer teorema de Shannon o, menos utilizado, teorema de codificación sin ruido es un Teorema enunciado por Claude Shannon en 1948 que establece el límite teórico para la compresión de una fuente de datos[1]​, así como el significado operacional de la entropía de Shannon.

El primer teorema de Shannon muestra que (En el limite en el que una cadena de Variables aleatorias independientes e idénticamente distribuidas de datos tiene a infinito) es imposible comprimir la información de forma que el ratio de codificación (número medio de bits por símbolo) es menor que la entropía de Shannon de la fuente, si se garantiza que no haya pérdida de información. Sin embargo, sí es posible conseguir un ratio de codificación arbitrariamente cerca del valor de la entropía de Shannon.

El primer teorema de Shannon establece una cota inferior y superior de la longitud mínima posible de bits de información como función de la entropía.

Enunciado[editar]

La codificación de una fuente es un mapeo de una secuencia de símbolos desde una fuente de información en una secuencia de símbolos de un alfabeto (generalmente bits) de forma que los símbolos de la fuente pueden ser recuperados posteriormente de forma exacta desde los bits binarios (codificación sin pérdidas) o recuperarla con alguna distorsión (codificación con pérdidas), pero aún entendibles. Éste es el concepto detrás de la compresión de datos.

Primer teorema de Shannon[editar]

En la Teoria de la Información, el primer teorema de Shannon (Shannon 1948)[2]​ informally states that (MacKay 2003, pg. 81,[3]​ Cover 2006, Chapter 5[4]​):

N i.i.d. variables aleatorias cada una con una entropia H(X) puede ser comprimida en más de N H(X) bits con un riesgo despreciable de pérdida de información , segúnN → ∞; pero a la inversa, si son comprimidos en menos de N H(X) bits es prácticamente seguro que se produce pérdida de información.

Primer teorema de Shannon para códigos simbólicos[editar]

Sean Σ1, Σ2 dos alfabetos finitos y sean Σ
1
y Σ
2
los conjuntos finitos de palabras de esos alfabetos (respectivamente).

Suponga que X es una variable aleatoria tomando valores en Σ1 y sea f un código singularmente decodificable desdeΣ
1
aΣ
2
donde2| = a. SeaS la variable aleatoria dada por la longitud de la palabra clavef (X).

Sif es óptimo en el sentido de que tiene la longitud de palabra clave mínima esperada para X, entonces(Shannon 1948):

Demostración: Teorema de codificación de la fuente[editar]

Sea X una fuente de variables aleatorias i.i.d., su serie temporal X1,…,Xn es también i.i.d. con entropía H(X) en el caso discreto y entropía diferencial en el caso continuo.

El teorema de codificación fuente establece que para cualquier ε>0 hay una cantidad suficientemente grande n y un codificador que toma n i.i.d repeticiones de la fuente, X1:n, y lo lleva a bits binarios de tal manera que los símbolos fuente X1:n son recuperables de los bits binarios con probabilidad de al menos 1-ε.

Demostración de su accesibilidad: Arregla algunos  y deja

El conjunto típico se define como:

La propiedad de equipartición asintótica muestra que para cantidades suficientemente grandes de n, la probabilidad de que una secuencia generada por la fuente se encuentre en dicho conjunto se acerca a uno.

La definición de conjuntos típicos implica que aquellas secuencias que se encuentran en dicho conjunto satisfacen:

Nótese que:

  • La probabilidad de que una secuencia   sea extraída de es mayor que 1-ε .
  •    

Ya que , bits son suficientes para señalar cualquier cadena en este conjunto. La demostración inversa se realiza mostrando que cualquier conjunto menor que (en el sentido de exponente), cubriría un conjunto de probabilidades limitadas desde 0.

Demostración: Teorema de codificación de fuentes para códigos de símbolos[editar]

Para , representa la longitud de la palabra para cada posible. Se define donde es una constante de normalización elegida de forma que . Entonces:

Donde la segunda línea viene dada por la desigualdad de Gibbs y la quinta por la desigualdad de Kraft.

Por lo que .

Para la segunda desigualdad, se establece que:

por lo que:

por tanto:

y por la desigualdad de Kraft, hay un código sin prefijo que tiene esa longitud de palabra. Esta S mínima satisface:

Extensión a fuentes independientes no estacionarias[editar]

En primer lugar definimos una base típica como

Entonces, dada una δ >0 , con n suficientente grande . Ahora solo hay que codificar las secuencias en la base típica, y los métodos más usuales de codificación muestran que la dimensión de esta base es menor que . De esta forma, en promedio bits son suficientes para codificar con probabilidad mayor que 1- δ , donde y δ pueden escogerse tan pequeños como se quiera, para un n muy grande.ç

Entropía de Tsallis[editar]

En física, la entropía de Tsallis es una generalización de la entropía estándar de Boltzmann. Es útil para estudiar los intercambios de información entre sistemas que no están en equilibrio.

Índice[editar]

Origen[editar]

Edwin T. Jaynes formuló la mecánica estadística como un problema de maximización entrópica. Puso de manifiesto que cualquier problema en la mecánica estadística de los sistemas en equilibrio, la maximización de la entropía de Shannon se reduce a encontrar el conjunto de probabilidades math>p{i}</math> para las que la entropía de Shannon es máxima bajo un conjunto de ligaduras que especifican las condiciones macroscópicas, que pueden proceder de la teoría o de datos experimentales.

Si las ligaduras son la condición de normalización y la conservación de la energía (i.e. ), entonces sólo existe una única solución para la distribución de probabilidades en equilibrio térmico que es la distribución exponencial de Boltzmann (o Maxwell-Boltzmann-Gibbs): donde Z es un factor de normalización que a garantiza la conservación de probabilidad. La variable Z recibe el nombre de función de partición y su definición es tal que:

La distribución de Boltzmann describe el conjunto canónico, que se aplica a cualquier situación donde un sistema está en equilibrio térmico e intercambiando energía con su entorno.

Ahora bien, el principio de máxima entropía solo implica situaciones de equilibrio, que solamente comprenden un subconjunto pequeño de los problemas en Física

Para sistemas que no están en equilibrio, debemos adoptar una forma de actuar diferente. Para entender la mecánica estadística del no-equilibrio parece razonable pensar que hemos de explorar el uso de otras medidas de entropía diferente, más generales que la de Shannon.

Fundamentalmente, Jaynes mostró que la entropía de Shannon y la distribución exponencial asociada de estados se aplican solamente para sistemas de equilibrio. Cabe preguntarse entonces qué otro tipo de entropías permiten obtener variacionalmente la distribución de estados no-exponencial que presentan los sistemas fuera del equilibrio (ley de potencias, fractalidad, etc).

De hecho, existen otras funciones de entropía que satisfacen otros requisitos diferentes a los planteados por Shannon, como la Entropía de Rényi, la cual ha resultado ser muy útil para el Análisis multifractal.

Existen numerosos sistemas en la naturaleza y en el comportamiento humano para los que la distribución de estados asociada se aproxima por una ley de potencias.

Una ley de potencias es algo que se comporta para grandes como con . Las distribuciones de probabilidad de tipo potencia decrecen muchi más lentamente que las de tipo exponencial, por tanto tienen propiedades estadísticas muy diferentes. Además, no se comportan tan bien como las exponenciales, en particular, el momento de orden m-ésimo de una distribución de potencia no existe cuando .

Las distribuciones de tipo potencia se han observado en fenómenos tan diversos como la energía de los rayos cósmicos, la turbulencia de los fluidos, ls terremotos, fluctuaciones de precios, la expansión de las urbes, la frecuencia del uso de las palabras, entre otras muchas cosas.

Está claro que las leyes de potencia no pueden explicarse por la mecánica estadística de equilibrio, donde las distribuciones resultantes son siempre exponenciales. Una propiedad común de todos los sistemas que obedecen leyes de potencia es que siempre corresponden a sistemas de no-equilibrio.

La ubicuidad de las leyes de potencia sugiere que debe existir una mecánica estadística del no-equilibrio cuya distribución de probabilidad sea de este tipo, de forma análoga a la distribución exponencial dentro de los sistemas en equilibrio.

Dentro de simulaciones de sistemas caóticos se ha evidenciado que tales sistemas pueden estar de forma metaestable con distribuciones de tipo potencia durante periodos de tiempo muy largos antes de caer en el equilibrio.

Desde un punto de vista puramente estadístico se establecen entonces funciones de entropía permitidas para estos casos en que la distribución de estados asociada es de tipo potencia

La entropía que modela correctamente este tipo de sistemas es la entropía de Tsallis.

Definición[editar]

La entropía de Tsallis de la distribución de probabilidad discreta se define por

donde .

Para la entropía de Tsallis se reduce a la entropía de Gibbs estándar.

Usando el formalismo variacional de Jaynes para la mecánica estádistica, uno puede maximixar esta función entropía con las ligaduras adecuadas para obtener funciones de distribución que tienen un comportamiento de tipo ley de potencias para . Estas funciones se denominan q-exponenciales y se definen por

cuando

cuando

La entropía de Tsallis tiene la propiedad de no aditividad

Por lo que se trata de una entropía no extensiva.

Significado[editar]

La entropía de Tsallis es una medida de falta de información. En particular, el conocimiento perfecto del estado microscópico de un sistema da lugar a que , y la incertidumbre máxima produce entropía máxima .

  1. Claude Shannon (julio de 1948). «A Mathematical Theory of Communication». Bell Labs Technical Journal. .
  2. C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal, vol. 27, pp. 379–423, 623-656, July, October, 1948
  3. David J. C. MacKay. Information Theory, Inference, and Learning Algorithms Cambridge: Cambridge University Press, 2003. ISBN 0-521-64298-1
  4. Cover, Thomas M. (2006). «Chapter 5: Data Compression». Elements of Information Theory. John Wiley & Sons. ISBN 0-471-24195-4.