Matriz por bloques

De Wikipedia, la enciclopedia libre
Una matriz por bloques de 168×168 elementos con submatrices de 12×12, 12×24, 24x12 y 24×24. Los elementos distintos de cero están en azul, los elementos cero están en gris

En matemáticas, una matriz por bloques o una matriz particionada es una matriz interpretada, caracterizada por estar dividida en secciones llamadas bloques o submatrices.[1]​ Intuitivamente, una matriz interpretada como una matriz por bloques se puede visualizar como la matriz original con una colección de líneas horizontales y verticales que la dividen, o particionan, en una colección de matrices más pequeñas.[2]​ Cualquier matriz se puede interpretar como una matriz por bloques de una o más formas, con cada interpretación definida por la forma en que se dividen sus filas y columnas.

Esta noción se puede hacer más precisa mediante una matriz de dimensión por , subdividiendo en una colección de y luego subdividiendo en una colección de . La matriz original se considera entonces como el total de estos grupos, en el sentido de que la entrada de la matriz original corresponde uno a uno con alguna entrada desplazada con respecto a algún , donde e .

El álgebra matricial por bloques surge en general de biproductos en categorías de matrices.[3]

Ejemplo[editar]

La matriz

se puede dividir en cuatro bloques de 2 × 2

La matriz particionada se puede escribir como

Multiplicación de matrices por bloques[editar]

Es posible utilizar un producto matricial dividido por bloques que involucre solo el álgebra en las submatrices de los factores. Sin embargo, la partición de los factores no es arbitraria y requiere particiones conformables[4]​ entre dos matrices y de manera que todos los productos de las submatrices que se vayan a utilizar estén definidos.[5]​ Dada una matriz con particiones de fila y particiones de columna

y una matriz con particiones de fila y particiones de columna

que son compatibles con las particiones de , el producto de matrices

se puede abordar por bloques, dando como una matriz con particiones de fila y particiones de columna . Las submatrices de la matriz resultante se calculan multiplicando:

O, utilizando el convenio de suma de Einstein que suma implícitamente sobre índices repetidos:

Inversión de una matriz por bloques[editar]

Si una matriz se divide en cuatro bloques, puede ser invertida de la siguiente manera:

donde A y D son matrices cuadradas de tamaño arbitrario, y B y C son conformables para particiones. Además, A y el complemento de Schur de A en P: P/A = DCA−1B deben ser invertibles.[6]

De manera equivalente, permutando los bloques:

Aquí, D y el complemento de Schur de D en P: P/D = ABD−1C debe ser invertible.

Si A y D son ambas invertibles, entonces:

Por la identidad de Weinstein-Aronszajn, una de las dos matrices en la matriz diagonal de bloques es invertible exactamente cuando la otra lo es.

Matrices diagonales por bloques[editar]

Una matriz diagonal por bloques es una matriz por bloques cuadrada, tal que los bloques de la diagonal principal son matrices cuadradas y todos los bloques fuera de la diagonal son matrices cero. Es decir, una matriz diagonal por bloques A tiene la forma

donde Ak es una matriz cuadrada para todo k = 1, ..., n. En otras palabras, la matriz A es la suma directa de A1, ..., An. También se puede indicar como A1 ⊕ A2 ⊕ ... ⊕ An o diag(A1, A2, ..., An) (este último es el mismo formalismo utilizado para una matriz diagonal). Cualquier matriz cuadrada puede considerarse trivialmente como una matriz diagonal de bloques con un solo bloque.

Para el determinante y la traza, se conservan las siguientes propiedades

Una matriz diagonal por bloques es invertible si y solo si cada uno de sus bloques de la diagonal principal es invertible, y en este caso su inversa es otra matriz diagonal por bloques dada por

Los autovalores y autovectores de son simplemente los de y y ... y combinados.

Matriz tridiagonal por bloques[editar]

Una matriz tridiagonal por bloques es otra matriz por bloques especial, que como la matriz diagonal de bloques es una matriz cuadrada, que tiene matrices cuadradas (bloques) en la diagonal inferior, en la diagonal principal y en la diagonal superior, y todos los demás bloques son matrices cero. Es esencialmente una matriz tridiagonal pero tiene submatrices en lugar de escalares. Una matriz tridiagonal por bloques A tiene la forma

donde Ak, Bk y Ck son submatrices cuadradas de la diagonal inferior, principal y superior respectivamente.

Las matrices tridiagonales por bloques se encuentran a menudo en soluciones numéricas de problemas de ingeniería (por ejemplo, en mecánica de fluidos computacional). Existen métodos numéricos optimizados para la factorización LU y, por lo tanto, algoritmos de solución eficientes para sistemas de ecuaciones con una matriz tridiagonal de bloques como matriz de coeficientes. El algoritmo para matrices tridiagonales, usado para la solución eficiente de sistemas de ecuaciones que involucran una matriz tridiagonal, también se puede aplicar usando operaciones matriciales para matrices tridiagonales por bloques (véase también descomposición en bloques LU).

Matriz de Toeplitz por bloques[editar]

Una matriz de Toeplitz por bloques es otra matriz por bloques especial, que contiene bloques que se repiten en las diagonales de la matriz, al igual que una matriz de Toeplitz tiene elementos repetidos en la diagonal. Los elementos individuales de la matriz por bloques, Aij, también deben ser matrices de Toeplitz.

Una matriz de Toeplitz por bloques A tiene la forma

Transposición por bloques[editar]

También se puede definir una forma especial de matriz transpuesta para matrices por bloques, donde los bloques individuales se reordenan pero no se transponen. Sea una matriz por bloques con bloques . La transposición por bloques de es la matriz por bloques con bloques .[7]

Al igual que con el operador traza convencional, la transposición por bloques es una aplicación lineal tal que . Sin embargo, en general, la propiedad no se mantiene a menos que los bloques de y de sean conmutables entre sí.

Suma directa[editar]

Para cualquier matriz arbitraria A (de tamaño m × n) y B (de tamaño p × q), se define la suma directa de A y B, denotada por A  B como

Por ejemplo,

Esta operación se generaliza naturalmente a matrices de dimensiones arbitrarias (siempre que A y B tengan el mismo número de dimensiones).

Debe tenerse en cuenta que cualquier elemento en la suma directa de dos espacios vectoriales de matrices podría representarse como la suma directa de dos matrices.

Aplicación[editar]

En términos de álgebra lineal, el uso de una matriz por bloques corresponde a tener una aplicación lineal en términos de racimos de vectores de una base, lo que nuevamente coincide con la idea de haber distinguido las descomposiciones de la suma directa de dominio y de rango. Siempre es particularmente significativo si un bloque es la matriz cero; que conlleva la información de que un sumando se aplica sobre sí mismo en una suma parcial.

Dada la interpretación a través de aplicaciones lineales y sumas directas, existe un tipo especial de matriz por bloques propio de las matrices cuadradas (en el caso m = n). En este supuesto, se puede asumir una interpretación como un endomorfismo de un espacio n dimensional V; la estructura de bloques en la que el agrupamiento de filas y columnas es el mismo es de importancia porque corresponde a tener una sola descomposición de suma directa en V (en lugar de dos). En ese caso, por ejemplo, los bloques diagonales en el sentido obvio son todos cuadrados. Este tipo de estructura es necesario para describir la forma canónica de Jordan.

Esta técnica se utiliza para reducir los cálculos con matrices; en expansiones de filas y columnas; y en diversas aplicaciones en ciencias de la computación, incluido el diseño de chips integrados. Un ejemplo es el algoritmo de Strassen para la multiplicación de matrices rápida, así como la codificación Hamming(7,4) para detección de errores y recuperación de datos en las transmisiones digitales.

Véase también[editar]

Referencias[editar]

  1. Eves, Howard (1980). Elementary Matrix Theory (reprint edición). New York: Dover. p. 37. ISBN 0-486-63946-0. Consultado el 24 de abril de 2013. (requiere registro). «Descubriremos que a veces es conveniente subdividir una matriz en bloques rectangulares de elementos. Esto nos lleva a considerar las llamadas matrices particionadas o por bloques 
  2. Anton, Howard (1994). Elementary Linear Algebra (7th edición). New York: John Wiley. p. 30. ISBN 0-471-58742-7. «Una matriz se puede subdividir o particionar en matrices más pequeñas insertando lineas horizontales y verticales entre las filas y columnas seleccionadas.» 
  3. Macedo, H.D.; Oliveira, J.N. (2013). «Typing linear algebra: A biproduct-oriented approach». Science of Computer Programming 78 (11): 2160-2191. arXiv:1312.4818. doi:10.1016/j.scico.2012.07.012. 
  4. Eves, Howard (1980). Elementary Matrix Theory (reprint edición). New York: Dover. p. 37. ISBN 0-486-63946-0. Consultado el 24 de abril de 2013. (requiere registro). «Un particionado como en el Teorema 1.9.4 es denominado un particionado conformable de A y B 
  5. Anton, Howard (1994). Elementary Linear Algebra (7th edición). New York: John Wiley. p. 36. ISBN 0-471-58742-7. «...siempre que los tamaños de las submatrices de A y B sean tales que se puedan realizar las operaciones indicadas.» 
  6. Bernstein, Dennis (2005). Matrix Mathematics. Princeton University Press. pp. 44. ISBN 0-691-11802-7. 
  7. Mackey, D. Steven (2006). Structured linearizations for matrix polynomials (Tesis). University of Manchester. ISSN 1749-9097. OCLC 930686781. 

Bibliografía[editar]

Enlaces externos[editar]