Norma matricial

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En matemáticas, una norma matricial es una extensión de la noción natural de norma vectorial a las matrices.

Definición[editar]

En adelante, K denotará el campo de los números reales o complejos y K^{m \times n} denotará el espacio vectorial que contienen todas las matrices con m filas y n columnas con entradas en K.

Una norma matricial es una norma vectorial en K^{m \times n}, o sea, si \|A\| denota la norma de la matriz A, entonces,

  • \|A\|> 0 si A\ne0 y \|A\|= 0 si y solo si A=0
  • \|\alpha A\|=|\alpha| \|A\| para todo \alpha en K y todas las matrices A en K^{m \times n}
  • \|A+B\| \le \|A\|+\|B\| para todas las matrices A y B en K^{m \times n}.

Adicionalmente, en el caso de matrices cuadradas (o sea, m = n), algunas (pero no todas) normas matriciales satisfacen la siguiente condición, la cual se relacióna con el hecho de que las matrices son más que simples vectores:

  • \|AB\| \le \|A\|\|B\| para todas las matrices A y B en K^{n \times n}.

Una norma matricial que satisface esta propiedad adicional es llamada norma sub-multiplicativa (en algunos libros, la terminología norma matricial se usa sólo para norma que son sub-multiplicativas). El conjunto de todas las matrices n-por-n, siendo normas sub-multiplicativas, es un ejemplo de un álgebra de Banach.

Norma inducida[editar]

Si se tienen norma vectoriales en Km y Kn se pueden definir la norma inducida correspondiente o el operador norma en el espacio de matrices m-por-n de la siguiente manera:

 \begin{align}
\|A\| &= \sup\{\|Ax\| : x\in K^n \mbox{ con }\|x\|= 1\} \\
&= \sup\left\{\frac{\|Ax\|}{\|x\|} : x\in K^n \mbox{ con }x\ne 0\right\}.
\end{align}

Hay diferentes normas que se denotan p-normas y usualmente se denotan por  \left \| A \right \| _p .

Si m = n y uno usa la misma norma en el dominio y el rango, entonces el operador norma inducido es una norma matricial sub-multiplicativa.

El operador norma correspondiente a la norma p para vectores es:

 \left \| A \right \| _p = \max \limits _{x \ne 0} \frac{\left \| A x\right \| _p}{\left \| x\right \| _p}.

En el caso de p=1 y p=\infty, las normas se pueden calcular como:

 \left \| A \right \| _1 = \max \limits _{1 \leq j \leq n} \sum _{i=1} ^m | a_{ij} |, que es simplemente la máxima suma absoluta de las columnas de la matriz.
 \left \| A \right \| _\infty = \max \limits _{1 \leq i \leq m} \sum _{j=1} ^n | a_{ij} |, que es simplemente la máxima suma absoluta de las filas de la matriz.

Por ejemplo, si la matriz A se define como

 
      A = \begin{bmatrix}
           3 & 5 & 7 \\
           2 & 6 & 4 \\
           0 & 2 & 8 \\
        \end{bmatrix},

se tiene ||A||1 = Max (5, 13, 19) = 19. y ||A|| = Max (15, 12, 10) = 15

En el caso especial de p = 2 (la norma euclidea) y m = n (matrices cuadradas), la norma inducida es la norma espectral. La norma espectral de una matriz A es el valor singular más grande de A o la raíz cuadrada del valor propio más grande de la matriz semidefinida-positiva A*A:

\left \| A \right \| _2=\sqrt{\lambda_{\text{max}}(A^{^*} A)}=\sigma_{\text{max}}(A)

donde A* denota la traspuesta conjugada de A.

En el caso más general, uno puede definir una norma matricial subordinada en R^{m\times n} inducida por \|\cdot\|_{\alpha} en R^n, y \|\cdot\|_{\beta} en R^m como:

 \left \| A \right \| _{\alpha,\beta} = \max \limits _{x \ne 0} \frac{\left \| A x\right \|_{\beta}}{\left \| x\right \|_{\alpha}}.

Las normas subordinadas son consistentes con las normas que las inducen, dando


\|Ax\|_{\beta}\leq \|A\|_{\alpha,\beta}\|x\|_{\alpha}.

Cualquier norma inducida satisface la desigualdad

\left \| A \right \| \ge \rho(A),

donde ρ(A) es el radio espectral de A. De hecho, se ρ(A) es el ínfimo de todas las normas inducidas de A.

Además, para matrices cuadradas se tiene la fórmula del radio espectral:

\lim_{r\rarr\infty}\|A^r\|^{1/r}=\rho(A).

Normas componente a componente o «Entrywise»[editar]

Estas normas tratan un vector de  m \times n veces la matriz como un vector de tamaño  m n , y el usando una de las normas de vectores conocida.

Por ejemplo, utilizando la p-norma de vectores, obtenemos

\Vert A \Vert_{p} = \left( \sum_{i=1}^m \sum_{j=1}^n |a_{ij}|^p \right)^{1/p}. \,

Norma de Frobenius[editar]

Para p = 2, esto se llama la norma de Frobenius o norma de Hilbert-Schmidt, Aunque este último término es a menudo reservado para los operadores de Espacio de Hilbert. Esta norma se puede definir de varias maneras:

\|A\|_F=\sqrt{\sum_{i=1}^m\sum_{j=1}^n |a_{ij}|^2}=\sqrt{\operatorname{trace}(A^{{}^*} A)}=\sqrt{\sum_{i=1}^{\min\{m,\,n\}} \sigma_{i}^2}

donde A^* \, denota la traspuesta conjugada de A \, , \sigma_i \, son los valores singulares de A \, . y la traza es usada. La norma Frobenius es muy similar a la norma euclidiana en \Bbb{R}^n \, y viene de un producto interno en el espacio de todas las matrices.

La norma de Frobenius es submultiplicativa y es muy útil para álgebra lineal numérica. Esta norma es a menudo más fácil de calcular que las normas inducidas.

Referencias[editar]

  1. Golub, Gene; Charles F. Van Loan (1996). Matrix Computations - Third Edition. Baltimore: The Johns Hopkins University Press, 56-57. ISBN 0-8018-5413-X.
  2. Roger Horn and Charles Johnson. Matrix Analysis, Chapter 5, Cambridge University Press, 1985. ISBN 0-521-38632-2.
  3. Douglas W. Harder, Matrix Norms and Condition Numbers [1]
  4. James W. Demmel, Applied Numerical Linear Algebra, section 1.7, published by SIAM, 1997.
  5. Carl D. Meyer, Matrix Analysis and Applied Linear Algebra, published by SIAM, 2000. [2]
  6. John Watrous, Theory of Quantum Information, 2.4 Norms of operators, lecture notes, University of Waterloo, 2008.