Principio de máximo de entropía

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

Introducción[editar]

En mecánica estadística el principio de máxima entropía es un principio que establece que la distribución de probabilidad menos sesgada que se le puede atribuir a un sistema estadístico es aquella en la que dadas unas ciertas condiciones fijas maximiza la entropía, esto es, aquella en la que la desinformación es máxima. Esto viene a decir que en una situación de desconocimiento de información la distribución estadística menos sesgada será aquella en que menos información extrínseca al problema contenga. El anterior principio implica que dada la entropía como una función de la distribución de probabilidad y las j condiciones intrínsecas al problema, la distribución menos sesgada para los N microestados cumplirá que:


\delta S=0\qquad

con las condiciones

\qquad f_i(P_1,...,P_N) \qquad i=1,...,j

Empleando los multiplicadores de Lagrange la función a minimizar sería:


\ \delta(S+\sum_i \lambda_i f_i(P_1,...,P_N))=0

Aplicaciones[editar]

Este principio variacional permite obtener las distribuciones microcanónica, canónica y macrocanónica para un sistema. La función entropía utilizada es:


\ S=-k\sum_lP_l\ln P_l

Colectividad microcanónica[editar]

La distribución de probabilidad correspondiente a la colectividad microcanónica es la perteneciente a un sistema aislado (no intercambia ni calor ni materia con el exterior). La única condición del problema será la normalización de la distribución de probabilidad para los j microestados:


\sum_{l=1}^N P_l=1

De modo que por el principio de máximo:


\delta\sum_l(-k\sum_lP_l\ln P_l+\lambda P_l)=0\qquad\Rightarrow\qquad \sum_l(-k-k\cdot \ln P_l+\lambda)\delta P_l=0

Dado que ha de cumplirse para toda variación de la distribución:


-k-k\cdot \ln P_l+\lambda=0\qquad\Rightarrow\qquad P_l=\mathrm{cte} \qquad\forall l=1,...,N

Por normalización se tiene:


P_l=\frac{1}{N}

Esto significa que en un sistema aislado, cada uno de los microestados son equiprobables.

Colectividad canónica[editar]

La colectividad canónica es la de un sistema en contacto con un foco a temperatura constante, o lo que es lo mismo, dado que la energía media es función de la temperatura, a energía media constante. Las condiciones serán por tanto, normalización de la función de distribución y energía media constante:


\sum_{l=1}^N P_l=1

\sum_{l=1}^N P_l E_l=\langle E \rangle

Por el principio de máximo:


\delta\sum_l(-kP_l\ln P_l+\lambda_1 P_l+\lambda_2 P_lE_l)=0\qquad\Rightarrow\qquad \sum_l(-k-k\cdot \ln P_l+\lambda_1+\lambda_2 E_l)\delta P_l=0

De nuevo ha de cumplirse para toda variación de la distribución:


-k-k\cdot \ln P_l+\lambda_1+\lambda_2 E_l=0 \qquad \rightarrow \qquad P_l=\mathrm{cte} \cdot e^{\frac{\lambda_2E_l}{k}}

A continuación se determinan la constante y el segundo multiplicador de Lagrange. Siendo Z la función de partición canónica, por normalización se tiene que:


P_l=\frac{e^{\frac{\lambda_2E_l}{k}}}{Z}\qquad Z=\sum_le^{\frac{\lambda_2E_l}{k}}

La entropía será:


S=-k\sum_lP_l \ln P_l=-k\sum_l P_l(\frac{\lambda_2E_l}{k}-\ln Z)=k\cdot \ln Z-\lambda_2\langle E\rangle

Por definición de temperatura:


\frac{1}{T}=\frac{\partial S}{\partial \langle E \rangle} \qquad \rightarrow\qquad \lambda_2=-\frac{1}{T}

De modo que la probabilidad de cada microestado será:


P_l=\frac{e^{-\frac{E_l}{kT}}}{Z}

El resultado muestra que los estados más probables son los de más baja energía de modo que la probabilidad de que el sistema se encuentre en un estado de alta energía es más bajo cuanto más alta sea la energía. Se puede observa también que en el cálculo de la entropía se obtuvo la siguiente expresión y recordando la definición de energía libre de Helmholtz:


\ TS=kT\ln Z+\langle E \rangle=-F+E \qquad \Rightarrow \qquad F=-kT\ln Z

De modo que un problema queda completamente determinado si se llega a conocer su función de partición.

Colectividad macrocanónica[editar]

La colectividad macrocanónica es aquella correspondiente a un sistema abierto en el que la energía media y el número medio de partículas es constante. Se puede realizar un cálculo análogo para un sistema que intercambie volumen, polarización, momento magnético, etc. Las condiciones serán por tanto normalización de la distribución y valores esperados de la energía y partículas constantes.


\sum_{l=1}^N P_l=1

\sum_{l=1}^N P_l E_l=\langle E \rangle

\sum_{l=1}^N P_l n_l=\langle n \rangle

El método será el mismo que en los anteriores dos casos: por el método de los multiplicadores de Lagrange se maximiza el funcional entropía, dado que las variaciones en cada probabilidad son arbitrarias cada uno de los términos del sumatorio ha de anularse independientemente, se define la gran función de partición y por último se determinan las constantes por normalización y recurriendo a las definiciones termodinámicas.


\delta\sum_l(-kP_l\ln P_l+\lambda_1 P_l+\lambda_2 P_lE_l+\lambda_3 P_ln_l)=0\qquad\rightarrow \qquad \sum_l(-k-k\cdot \ln P_l+\lambda_1+\lambda_2 E_l+\lambda_3n_l)\delta P_l=0 \qquad \Rightarrow

-k-k\cdot \ln P_l+\lambda_1+\lambda_2 E_l+\lambda_3n_l=0 \qquad \Rightarrow \qquad P_l= \mathrm{cte} \cdot e^{\frac{\lambda_2E_l}{k}+\frac{\lambda_3n_l}{k}}

Por normalización.


\mathcal Z=\sum_l e^{\frac{\lambda_2E_l}{k}+\frac{\lambda_3n_l}{k}} \qquad \Rightarrow \qquad P_l= \frac{e^{\frac{\lambda_2E_l}{k}+\frac{\lambda_3n_l}{k}}}{\mathcal Z}

De modo que:


S=-k\sum_l P_l \ln P_l = -k \sum_l P_l(\frac{\lambda_2E_l}{k}+\frac{\lambda_3n_l}{k}-\ln \mathcal Z) = k\cdot \ln \mathcal Z-\lambda_2\langle E\rangle-\lambda_3\langle n \rangle

Por definición de temperatura y potencial químico:


\frac{1}{T}=(\frac{\partial S}{\partial \langle E \rangle})_n\qquad\Rightarrow\qquad \lambda_2=-\frac{1}{T}

\mu=(\frac{\partial\langle E \rangle}{\partial \langle n \rangle})_S\qquad\Rightarrow\qquad \lambda_3=\frac{\mu}{T}

La probabilidad de cada microestado será:


P_l=\frac{e^{-\frac{E_l}{kT}+\frac{\mu n_l}{kT}}}{\mathcal Z}

Véase también[editar]

Enlaces externos[editar]