Matriz hessiana

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En Matemática, la matriz hessiana o hessiano de una función f de n variables, es la matriz cuadrada de n × n, de las segundas derivadas parciales.

Definición[editar]

Dada una función real f de n variables reales:

\begin{align}
  & f\colon\mathbb{R}^{n}\to \mathbb{R} \\ 
 & \,\,\,\,\,\,\,x\mapsto f(x) \\ 
\end{align}


Si todas las segundas derivadas parciales de f existen, se define la matriz hessiana de f como:  H_{f}(\mathbf{x}), donde

 H_{f}(\mathbf{x})_{i,j} = \frac{\partial^2\,f(\mathbf{x})}{\partial x_i\, \partial x_j}.

tomando la siguiente forma

H(f) = \begin{bmatrix}
\frac{\partial^2 f}{\partial x_1^2} & \frac{\partial^2 f}{\partial x_1\partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_1\partial x_n} \\
\frac{\partial^2 f}{\partial x_2\partial x_1} & \frac{\partial^2 f}{\partial x_2^2} & \cdots & \frac{\partial^2 f}{\partial x_2\partial x_n} \\
\vdots & \vdots & \ddots & \vdots \\
\frac{\partial^2 f}{\partial x_n\partial x_1} & \frac{\partial^2 f}{\partial x_n\partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_n^2}
\end{bmatrix}

Además, se tiene que si :f \colon A \subseteq \Bbb{R}^n \to \Bbb{R} \, con A un conjunto abierto y f clase \mathcal C^2, entonces la matriz hessiana está bien definida, y en virtud del teorema de Clairaut (ó teorema de Schwarz), es una matriz simétrica.

Esta matriz debe su nombre al matemático alemán Ludwig Otto Hesse y fue introducido por James Joseph Sylvester.

Aplicación de la matriz hessiana[editar]

Concavidad/Convexidad[editar]

Sea A \subseteq \mathbb{R}^n un conjunto abierto y f \colon A \to \mathbb{R} una función con segundas derivadas continuas:

  1. f \, es convexa si y solo si, \forall a \in A, la matriz hessiana H_f(a) \, es positiva-definida.
  2. Si \forall a \in A la matriz hessiana H_f(a) \, es positiva-definida, entonces f \, es estrictamente convexa.
    • Si f \, es una función convexa, entonces cualquier punto en que todas las derivadas parciales son cero, es un minimo local.
  3. f \, es cóncava si y solo si, \forall a \in A, la matriz hessiana H_f(a) \, es negativa-definida.
  4. Si \forall a \in A la matriz hessiana H_f(a) \, es negativa-definida, entonces f es estrictamente cóncava.
    • Si f \, es una función cóncava, entonces cualquier punto en que todas las derivadas parciales son cero, es un máximo local.

Método para determinar el carácter de los puntos críticos[editar]

Se verá a continuación cómo hallar los puntos críticos (máximos, mínimos y puntos de inflexión -o silla o de ensilladura) de una función f de múltiples variables.

  1. Se igualan las derivadas parciales primeras a cero.
  2. Se resuelven las ecuaciones anteriores y se obtienen las coordenadas de los puntos críticos.
  3. Se construye la matriz hessiana (derivadas segundas parciales).
  4. Se sustituyen los puntos críticos en la matriz hessiana para obtener tantas matrices como puntos críticos tengamos.
  5. Dependiendo del tipo de matriz resultante de evaluar la matriz Hessiana en los diferentes puntos críticos, estos puntos se pueden evaluar mediante el criterio de Sylvester:
Cuando algún |Hi|=0 no se puede determinar nada, por lo que hace un estudio particular. Para n=2. el criterio se mejora en el sentido de que si |H1|=0 y |H2|<0 ƒ tiene un punto de silla en el punto.


De forma análoga podemos evaluar los extremos relativos de un campo escalar f:R^n--->R estudiando los autovalores de su matriz hessiana.

Teorema 9.6(CALCULUS volumen 2. Tom M.Apostol): "Sea f un campo escalar con derivadas parciales segundas continuas Dijf en una n-bola B(a), y designemos con H(a) la matriz hessiana en el punto estacionario a. Tenemos entonces:

a)Si todos los autovalores de H(a) son positivos, f tiene un mínimo relativo en a.

b)Si todos los autovalores de H(a) son negativos, f tiene un máximo relativo en a.

c)Si H(a) tiene autovalores positivos y negativos, f tiene un punto de ensilladura en a."


El el caso particular en el que la función a evaluar grafica una superficie en R^3, f(x,y)=z, y tiene segundas derivadas continuas, se pueden estudiar los puntos críticos evaluando la matriz hessiana en ellos y luego utilizando el criterio de determinación de extremos. Si (a,b) es un punto crítico de f, (fx(a,b)=0 y fy(a,b)=0) entonces:

- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es mayor que 0, |H|>0, y fxx(a,b)<0, decimos que f alcanza un máximo relativo en(a,b).

- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es mayor que 0, |H|>0, y fxx(a,b)>0, decimos que f alcanza un mínimo relativo en(a,b).

- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es menor que 0, |H|<0, decimos que f(a,b) es un Punto de silla.

- Si el determinante de la matriz hessiana evaluado en el punto (a,b) es igual a 0, |H|=0, el criterio no concluye resultado alguno.

Generalizaciones[editar]

Matriz hessiana orlada[editar]

La matriz hessiana orlada es una variante de la matriz hessiana utilizada en problemas de optimización restringida. El determinante de sus principales menores se utiliza como criterio para determinar si un punto crítico de una función es un mínimo, máximo, punto silla o no determinado (extremos condicionados).[1]

Aplicación bilineal hessiana[editar]

El concepto de matriz hessiana puede generalizarse a espacios de dimensión infinita, concretamente a aplicaciones definidas sobre espacios vectoriales normados. Si una aplicación (o funcional) está definida es diferenciable en el sentido de Fréchet y su diferencial jacobiana también es diferenciable en el sentido de Fréchet puede definirse una forma bilineal continua (y por tanto acotada) sobre el espacio normado que generaliza la matriz hessiana.

Se dice que una aplicación f\colon\Omega\in X \to Y entre espacios vectoriales normados X, Y es diferenciable si existe una aplicación lineal continua L_a\in\mathcal{L}(X,Y) tal que:

\lim_{h \to 0} \frac{\|f(a+h) -f(a) - L_a(h)\|_Y}{\|h\|_X} = 0

En ese caso se escribe:

\mathrm{D}f(a)h \equiv L_a(h)

Puede probarse que \mathcal{L}(X,Y) es a su vez otro espacio vectorial normado con la norma:

\|A\|_{\mathcal{L}(X,Y)}:= \sup_{0\ne x\in X} \frac{\|Ax\|_Y}{\|x\|_X}

La segunda derivadas cuando existe es:

\mathrm{D}^2f(a):= \mathrm{D}(\mathrm{D}f(a)) \in
{\mathcal{L}(X,{\mathcal{L}(X,Y)})}

La forma bilineal hessiana viene dada por:

H_f(a)(h,k) := (\mathrm{D}^2f(a)h)k, \qquad h,k\in X,\ H_f(a)\in \mathcal{L}(X\times X,Y)\approx \mathcal{L}(X,{\mathcal{L}(X,Y)})

Véase también[editar]

Referencias[editar]

  1. Marsden, Jerrold E.; Tromba, Anthony J. (2004), Cálculo vectorial, Madrid: Pearson Educación S.A., ISBN 978-84-7829-069-7 , página 230

Enlaces externos[editar]