Matriz hessiana

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En Matemática, la matriz hessiana o hessiano de una función f de n variables, es la matriz cuadrada de n × n, de las segundas derivadas parciales.

Definición[editar]

Dada una función real f de n variables reales:

\begin{align}
  & f\colon\mathbb{R}^{n}\to \mathbb{R} \\ 
 & \,\,\,\,\,\,\,x\mapsto f(x) \\ 
\end{align}


Si todas las segundas derivadas parciales de f existen, se define la matriz hessiana de f como:  H_{f}(\mathbf{x}), donde

 H_{f}(\mathbf{x})_{i,j} = \frac{\partial^2\,f(\mathbf{x})}{\partial x_i\, \partial x_j}.

tomando la siguiente forma

H(f) = \begin{bmatrix}
\frac{\partial^2 f}{\partial x_1^2} & \frac{\partial^2 f}{\partial x_1\partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_1\partial x_n} \\
\frac{\partial^2 f}{\partial x_2\partial x_1} & \frac{\partial^2 f}{\partial x_2^2} & \cdots & \frac{\partial^2 f}{\partial x_2\partial x_n} \\
\vdots & \vdots & \ddots & \vdots \\
\frac{\partial^2 f}{\partial x_n\partial x_1} & \frac{\partial^2 f}{\partial x_n\partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_n^2}
\end{bmatrix}

Además, se tiene que si :f \colon A \subseteq \Bbb{R}^n \to \Bbb{R} \, con A un conjunto abierto y f clase \mathcal C^2, entonces la matriz hessiana está bien definida, y en virtud del teorema de Clairaut (ó teorema de Schwarz), es una matriz simétrica.

Esta matriz debe su nombre al matemático alemán Ludwig Otto Hesse y fue introducido por James Joseph Sylvester.

Aplicación de la matriz hessiana[editar]

Concavidad/Convexidad[editar]

Sea A \subseteq \mathbb{R}^n un conjunto abierto y f \colon A \to \mathbb{R} una función con segundas derivadas continuas:

  1. f \, es convexa si y solo si, \forall a \in A, la matriz hessiana H_f(a) \, es positiva-definida.
  2. Si \forall a \in A la matriz hessiana H_f(a) \, es positiva-definida, entonces f \, es estrictamente convexa.
    • Si f \, es una función convexa, entonces cualquier punto en que todas las derivadas parciales son cero, es un minimo local.
  3. f \, es cóncava si y solo si, \forall a \in A, la matriz hessiana H_f(a) \, es negativa-definida.
  4. Si \forall a \in A la matriz hessiana H_f(a) \, es negativa-definida, entonces f es estrictamente cóncava.
    • Si f \, es una función cóncava, entonces cualquier punto en que todas las derivadas parciales son cero, es un máximo local.

Método para determinar el carácter de los puntos críticos[editar]

Se verá a continuación cómo hallar los puntos críticos (máximos, mínimos y puntos de inflexión -o silla o de ensilladura) de una función f de múltiples variables.

  1. Se igualan las derivadas parciales primeras a cero.
  2. Se resuelven las ecuaciones anteriores y se obtienen las coordenadas de los puntos críticos.
  3. Se construye la matriz hessiana (derivadas segundas parciales).
  4. Se sustituyen los puntos críticos en la matriz hessiana para obtener tantas matrices como puntos críticos tengamos.
  5. Dependiendo del tipo de matriz resultante de evaluar la matriz Hessiana en los diferentes puntos críticos, estos puntos se pueden evaluar mediante el criterio de Sylvester:
Cuando algún |Hi|=0 no se puede determinar nada, por lo que hace un estudio particular. Para n=2. el criterio se mejora en el sentido de que si |H1|=0 y |H2|<0 ƒ tiene un punto de silla en el punto.

Generalizaciones[editar]

Matriz hessiana orlada[editar]

La matriz hessiana orlada es una variante de la matriz hessiana utilizada en problemas de optimización restringida. El determinante de sus principales menores se utiliza como criterio para determinar si un punto crítico de una función es un mínimo, máximo, punto silla o no determinado (extremos condicionados).[1]

Aplicación bilineal hessiana[editar]

El concepto de matriz hessiana puede generalizarse a espacios de dimensión infinita, concretamente a aplicaciones definidas sobre espacios vectoriales normados. Si una aplicación (o funcional) está definida es diferenciable en el sentido de Fréchet y su diferencial jacobiana también es diferenciable en el sentido de Fréchet puede definirse una forma bilineal continua (y por tanto acotada) sobre el espacio normado que generaliza la matriz hessiana.

Se dice que una aplicación f\colon\Omega\in X \to Y entre espacios vectoriales normados X, Y es diferenciable si existe una aplicación lineal continua L_a\in\mathcal{L}(X,Y) tal que:

\lim_{h \to 0} \frac{\|f(a+h) -f(a) - L_a(h)\|_Y}{\|h\|_X} = 0

En ese caso se escribe:

\mathrm{D}f(a)h \equiv L_a(h)

Puede probarse que \mathcal{L}(X,Y) es a su vez otro espacio vectorial normado conla norma:

\|A\|_{\mathcal{L}(X,Y)}:= \sup_{0\ne x\in X} \frac{\|Ax\|_Y}{\|x\|_X}

La segunda derivadas cuando existe es:

\mathrm{D}^2f(a):= \mathrm{D}(\mathrm{D}f(a)) \in
{\mathcal{L}(X,{\mathcal{L}(X,Y)})}

La forma bilineal hessiana viene dada por:

H_f(a)(h,k) := (\mathrm{D}^2f(a)h)k, \qquad h,k\in X,\ H_f(a)\in \mathcal{L}(X\times X,Y)\approx \mathcal{L}(X,{\mathcal{L}(X,Y)})

Véase también[editar]

Referencias[editar]

  1. Marsden, Jerrold E.; Tromba, Anthony J. (2004), Cálculo vectorial, Madrid: Pearson Educación S.A., ISBN 978-84-7829-069-7 , página 230

Enlaces externos[editar]