Termodinámica de máxima entropía

De Wikipedia, la enciclopedia libre

La termodinámica de máxima entropía, también llamado modelo de máxima entropía o teoria MaxEnt es una línea de pensamiento en física que mira al punto de equilibrio termodinámico y la mecánica estadística como procesos de inferencia. Más específicamente, la MaxEnt aplica técnicas de inferencia basadas en la teoría de la información de Shannon, la probabilidad bayesiana y el principio de máxima entropía. Estas técnicas son pertinentes para situaciones que requieren la extrapolacion de datos incompletos o insuficientes (por ejemplo, la reconstrucción de imágenes, el procesamiento de ciertas señales, los análisis espectrales y problemas inversos). La termodinámica MaxEnt comenzó con dos trabajos de Edwin T. Jaynes publicados en el Physical Review en 1957.[1][2]

Entropía máxima de Shannon[editar]

La parte central de la tesis MaxEnt es el principio de máxima entropía. Exige para la definición de su modelo que exista una parte específica y ciertos datos específicos relacionados con el modelo. Selecciona una distribución de probabilidad preferida para representar dicho modelo. Los datos así presentados apuntan a una "información comprobable"[3][4]​ relacionada con la distribución de probabilidad, por ejemplo valores de expectativas particulares, sin que sean en sí mismos suficientes para determinarlo de manera exclusiva. El principio establece que se debe preferir la distribución que maximiza la entropía de información de Shannon.

Algoritmo de Gibbs[editar]

En 1878, Josiah Willard Gibbs presentó un algoritmo para establecer conjuntos estadísticos capaces de predecir las propiedades de sistemas termodinámicos en equilibrio.

El algoritmo es la piedra angular del análisis mecánico-estadístico de las propiedades termodinámicas de los sistemas en equilibrio. Se establece así una conexión directa entre tres grupos de variables; el equilibrio termodinámico de entropía STh, la función de estado de presión, volumen, temperatura, etc.; y la entropía de información para la distribución predicha con la máxima incertidumbre, condicionado sólo a los valores esperados de esas variables:

kB, la constante de Boltzmann, no tiene significado físico fundamental en la ecuación, pero es necesaria para mantener la coherencia con la definición histórica de entropía hecha por Clausius en 1865. Sin embargo, la escuela a favor de la tesis MaxEnt argumenta que este enfoque es una técnica general de la inferencia estadística, con aplicaciones mucho mayores. Se puede, por lo tanto, también ser utilizado para predecir una distribución de «trayectorias» Γ "durante un período determinado de tiempo" mediante la maximización de:

Esta "entropía de la información" no tiene necesariamente una correspondencia simple con la entropía termodinámica. Pero puede ser usada para predecir características de sistemas termodinámicos de no equilibrio a medida que estos evolucionan con el tiempo.

Para los escenarios del no equilibrio, cuando las aproximación suponen un estado de equilibrio termodinámico local enfocado en una máxima entropía, las relaciones recíprocas de Onsager y las relaciones de Green-Kubo caen en desacuerdo directo. El enfoque también crea un marco teórico para el estudio de algunos casos muy especiales de escenarios o situaciones lejos del equilibrio, por lo que la derivación de la producción de fluctuación de entropía se vuelve un teorema sencillo. Para los procesos de no equilibrio, como lo es para las descripciones macroscópicas, una definición general de la entropía para cálculos mecánicos estadísticos microscópicos también es deficiente.

Por las razones expuestas en el artículo entropía diferencial, la simple definición de la entropía de Shannon deja de ser directamente aplicable para las variables aleatorias con funciones de distribución de probabilidad continuas. En su lugar la cantidad apropiada para maximizar es la "información de entropía relativa,"

Hc es el negativo de la divergencia de Kullback-Leibler, o información de la discriminación, de m(x) a partir de p(x), donde m (x) es una medida invariante previa para la variable (s). La entropía relativa Hc es siempre menor que cero, y puede ser vista como (el negativo de) el número de bits de incertidumbre perdida por el enfoque sobre p(x) en lugar de m(x). A diferencia de la entropía de Shannon, la entropía relativa Hc tiene la ventaja de permanecer finito y bien definido para x cuando es continua, e invariante bajo transformaciones de coordenadas 1-a-1. Las dos expresiones coinciden para las distribuciones de probabilidades discretas, si se hace el planteamiento de que m(xi) es uniforme, es decir, el principio de igualdad da prioridad a la probabilidad, que es la base de la termodinámica estadística.

Referencias[editar]

  1. Jaynes, E.T. (1957). «Information theory and statistical mechanics» (PDF). Physical Review 106 (4): 620-630. Bibcode:1957PhRv..106..620J. doi:10.1103/PhysRev.106.620. 
  2. — (1957). «Information theory and statistical mechanics II» (PDF). Physical Review 108 (2): 171-190. Bibcode:1957PhRv..108..171J. doi:10.1103/PhysRev.108.171. 
  3. Jaynes, E.T. (1968), p. 229.
  4. Jaynes, E.T. (1979), pp. 30, 31, 40.


Bibliografía de las referencias citadas[editar]

 [physics.ed-ph].