Desigualdad de Jensen

De Wikipedia, la enciclopedia libre
Una prueba gráfica de la desigualdad de Jensen.

En matemáticas, la desigualdad de Jensen para funciones convexas relaciona el valor que asigna a una integral con la integral de esa misma función permutando, por así decirlo, la función y la integral. Fue probada por el matemático danés Johan Jensen en 1906.[1]​ Dada su generalidad, la desigualdad aparece en múltiples contextos.

Formulación[editar]

En su formulación más simple, la desigualdad es la siguiente: una transformación convexa de la media es menor o igual en valor que la media de una transformación convexa. Sin embargo, su formulación formal más general se expresa en el contexto de la teoría de la medida:

Sea (Ω, Aμ) un espacio de medida tal que μ(Ω) = 1. Si g es una función real μ-integrable y φ una función convexa en el eje real, entonces:

Casos particulares[editar]

Formulación finita[editar]

Dada una función convexa φ, números x1x2, ..., xn en su dominio y pesos positivos ai se cumple que:

En particular, si los pesos ai son todos iguales a 1, entonces

Por ejemplo, como la función -log(x) es convexa, la desigualdad anterior puede concretarse en

En análisis real[editar]

Si son números reales y es una función real integrable, entonces, reescalando, se puede aplicar la desigualdad de Jensen para obtener

Por otro lado, si f(x) es una función no negativa tal que

g es una función real cualquiera y φ es una función convexa sobre el rango de g, entonces

En caso de que g sea la función identidad, se obtiene


Aplicaciones en casos especiales[editar]

Formulación probabilística[editar]

La desigualdad de Jensen, usando la notación habitual en teoría de la probabilidad, puede reescribirse así:

(1)

,

donde es una función convexa.

Física estadística[editar]

La desigualdad de Jensen desempeña un papel importante en física estadística cuando la función convexa es la exponencial porque entonces

(1)

fórmula en la que los paréntesis angulares representan la esperanza respecto a la distribución de probabilidad de la variable aleatoria X.

Teoría de la información[editar]

Si p(x) es la función de densidad correspondiente a una variable aleatoria X y q(x) es otra función de densidad, entonces, aplicando la desigualdad (1) a la variable aleatoria Y(X) = q(X)/p(X) y la función φ(y) = −log(y) se obtiene

que es la llamada desigualdad de Gibbs y está relacionada con el hecho de que la longitud de los mensajes es mínima cuando se codifican en términos de la distribución verdadera y con el concepto de la divergencia de Kullback-Leibler.

Véase también[editar]

Referencias[editar]

  1. Jensen, J. L. W. V. (1906). «Sur les fonctions convexes et les inégalités entre les valeurs moyennes». Acta Mathematica 30 (1): 175-193. doi:10.1007/BF02418571. 

Bibliografía[editar]