Desigualdad de Jensen

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En matemáticas, la desigualdad de Jensen para funciones convexas relaciona el valor que asigna a una integral con la integral de esa misma función permutando, por así decirlo, la función y la integral. Fue probada por el matemático danés Johan Jensen en 1906.[1] Dada su generalidad, la desigualdad aparece en múltiples contextos.

Formulación[editar]

En su formulación más simple, la desigualdad es la siguiente: una transformación convexa de la media es menor o igual en valor que la media de una transformación convexa. Sin embargo, su formulación formal más general se expresa en el contexto de la teoría de la medida:

Sea (Ω, Aμ) un espacio de medida tal que μ(Ω) = 1. Si g es una función real μ-integrable y φ una función convexa en el eje real, entonces:

\varphi\left(\int_\Omega g\, d\mu\right) \le \int_\Omega \varphi \circ g\, d\mu.

Casos particulares[editar]

Formulación finita[editar]

Dada una función convexa φ, números x1x2, ..., xn en su dominio y pesos positivos ai se cumple que:

\varphi\left(\frac{\sum a_i x_i}{\sum a_i}\right) \le \frac{\sum a_i \varphi (x_i)}{\sum a_i}.

En particular, si los pesos ai son todos iguales a 1, entonces

\varphi\left(\frac{\sum x_i}{n}\right) \le \frac{\sum \varphi (x_i)}{n}.

Por ejemplo, como la función -log(x) es convexa, la desigualdad anterior puede concretarse en

 \frac{x_1 + x_2 + \cdots + x_n}{n} \ge \sqrt[n]{x_1 x_2 \cdots x_n}.

En análisis real[editar]

Si a < b son números reales y f:[a,b]\to\mathbb{R} es una función real integrable, entonces, reescalando, se puede aplicar la desigualdad de Jensen para obtener

\varphi\left(\int_a^b  f(x)\, dx\right) \le \int_a^b \varphi((b-a)f(x))\frac{1}{b-a} \,dx.

Por otro lado, si f(x) es una función no negativa tal que

\int_{-\infty}^\infty f(x)\,dx = 1,

g es una función real cualquiera y φ es una función convexa sobre el rango de g, entonces

 \varphi\left(\int_{-\infty}^\infty g(x)f(x)\, dx\right) \le \int_{-\infty}^\infty \varphi(g(x)) f(x)\, dx.

En caso de que g sea la función identidad, se obtiene

\varphi\left(\int_{-\infty}^\infty x\, f(x)\, dx\right) \le \int_{-\infty}^\infty \varphi(x)\,f(x)\, dx.


Aplicaciones en casos especiales[editar]

Formulación probabilística[editar]

La desigualdad de Jensen, usando la notación habitual en teoría de la probabilidad, puede reescribirse así:

(1)\varphi\left(\mathbb{E}\{X\}\right) \leq \mathbb{E}\{\varphi(X)\}.

Física estadística[editar]

La desigualdad de Jensen desempeña un papel importante en física estadística cuando la función convexa es la exponencial porque entonces

(1) e^{\langle X \rangle} \leq \left\langle e^X \right\rangle,

fórmula en la que los los paréntesis angulares representan la esperanza respecto a la distribución de probabilidad de la variable aleatoria X.

Teoría de la información[editar]

Si p(x) es la función de densidad correspondiente a una variable aleatoria X y q(x) es otra función de densidad, entonces, aplicando la desigualdad (1) a la variable aleatoria Y(X) = q(X)/p(X) y la función φ(y) = −log(y) se obtiene

\int p(x) \log \frac{p(x)}{q(x)} \, dx  \ge  - \log \int p(x) \frac{q(x)}{p(x)} \, dx

\Rightarrow \int p(x) \log \frac{p(x)}{q(x)} \, dx \ge 0

\Rightarrow  - \int p(x) \log q(x) \, dx \ge - \int p(x) \log p(x) \, dx,

que es la llamada desigualdad de Gibbs y está relacionada con el hecho de que la longitud de los mensajes es mínima cuando se codifican en términos de la distribución verdadera y con el concepto de la divergencia de Kullback-Leibler.

Notas[editar]

  1. Jensen, J. L. W. V. (1906). «Sur les fonctions convexes et les inégalités entre les valeurs moyennes». Acta Mathematica 30 (1):  pp. 175–193. doi:10.1007/BF02418571. 

Referencias[editar]