Multiplicación de matrices

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En matemática, la multiplicación o producto de matrices es la operación de composición efectuada entre dos matrices, o bien la multiplicación entre una matriz y un escalar según unas reglas.

Al igual que la multiplicación aritmética, su definición es instrumental, es decir, viene dada por un algoritmo capaz de efectuarla. El algoritmo para la multiplicación matricial es diferente del que resuelve la multiplicación de dos números. La diferencia principal es que la multiplicación de matrices no cumple con la propiedad de conmutatividad.

Multiplicación de una matriz por un escalar[editar]

Dada una matriz A de m filas y n columnas es una matriz del tipo:

A = \begin{pmatrix}
 a_{1 1} & \cdots & a_{1 n} \\
 \vdots & \ddots & \vdots \\
 a_{m 1} & \cdots & a_{m n}
 \end{pmatrix} que se escribe genéricamente como A:=(a_{i j})_{m \times n}.

la multiplicación de A por un escalar k, que se denota k·A, k×A o simplemente kA es:

kA = \begin{pmatrix}
 ka_{1 1} & \cdots & ka_{1 n} \\
 \vdots & \ddots & \vdots \\
 ka_{m 1} & \cdots & ka_{m n}
 \end{pmatrix} que se escribe genéricamente como kA:=(k\cdot a_{i j})_{m \times n}.

En el caso particular de multiplicación por enteros, se puede considerar como sumar o restar la misma matriz tantas veces como indique el escalar:

n \times A = \underbrace{A + \dots\ + A}_n

Propiedades[editar]

Sean A, B matrices y c, d escalares, la multiplicación de matrices por escalares cumple con las siguientes propiedades:

Propiedad Descripción
Clausura cA es también una matriz
Elemento neutro Existe el elemento neutro uno, de manera que 1·A = A
Propiedad asociativa (cd)A = c(dA)
Propiedad distributiva
- De escalar
- De matriz

c(A+B) = cA+cB
(c+d)A = cA+dA

Multiplicación de una matriz por otra matriz[editar]

Los resultados en las posiciones marcadas dependen de las filas y columnas de sus respectivos colores.

Dadas dos matrices A y B, tales que el número de columnas de la matriz A es igual al número de filas de la matriz B; es decir:

A:=(a_{ij})_{m \times n} y B:=(b_{ij})_{n \times p}

la multiplicación de A por B, que se denota A \cdot B, \; A \times B, \; A \circ B o simplemente AB, el resultado del producto es una nueva matriz C:

C=AB:=(c_{ij})_{m \times p}

donde cada elemento ci,j está definido por:

c_{ij} = \sum_{r=1}^n a_{ir}b_{rj}

es decir:

C = AB_{}^{} =  \begin{pmatrix}
 a_{1 1} & \cdots & a_{1 n} \\
 \vdots & \ddots & \vdots \\
 a_{m 1} & \cdots & a_{m n}
 \end{pmatrix} \cdot  \begin{pmatrix}
 b_{1 1} & \cdots & b_{1 p} \\
 \vdots & \ddots & \vdots \\
 b_{n 1} & \cdots & b_{n p}
 \end{pmatrix} =  \begin{pmatrix}
 a_{11}b_{11}+ \cdots +a_{1n}b_{n1} & \cdots & a_{11}b_{1p}+ \cdots +a_{1n}b_{np} \\
 \vdots & \ddots & \vdots \\
 a_{m1}b_{11}+ \cdots +a_{mn}b_{n1} & \cdots & a_{m1}b_{1p}+ \cdots +a_{mn}b_{np}
 \end{pmatrix}

Propiedades[editar]

Sean A, B y C matrices para las cuales la multiplicación entre ellas está bien definida, es decir, tales que sus elementos pertenecen a un grupo donde la multiplicación está definida, y de manera que el número de filas y de columnas permite realizar la multiplicación; entonces se cumplen las siguientes propiedades:

Propiedad Descripción
Clausura AB es también una matriz
Elemento neutro Si A es una matriz cuadrada de tamaño m, entonces la matriz identidad Im×m es elemento neutro, de manera que: I·A = A·I = A
Propiedad asociativa (AB)C = A(BC)
Propiedad distributiva
- Por la derecha
- Por la izquierda

(A + B)C = AC + BC
C(A + B) = CA + CB
Demostración de la propiedad asociativa
Sean A una matriz de mxn; B una matriz de nxp; y C un matriz de pxq. Entonces, AB sera una matriz de mxp. Del mismo modo, BC sera una matriz de nxq. Por lo tanto, usando sumatoria, verificaremos la propiedad asociativa del producto de matrices, es decir, (AB)C=A(BC). Para AB:

AB=\sum_{k=1}^n a_{ik}b_{kj}=D=(d_{ij})

Luego, multiplicando D por C:

DC=\sum_{l=1}^p d_{il}c_{lj}

Reemplazando D por AB:

(1)(AB)C=\sum_{l=1}^p(\sum_{k=1}^n a_{ik}b_{kl})c_{lj}=\sum_{l=1}^p \sum_{k=1}^n a_{ik}b_{kl}c_{lj}

Ahora, para BC:

BC=\sum_{l=1}^p b_{il}c_{lj}=E=(e_{ij})

Luego, multiplicando A por E:

AE=\sum_{k=1}^n a_{ik}e_{kj}

Reemplazando E por BC:

(2)A(BC)=\sum_{k=1}^n a_{ik}(\sum_{l=1}^p b_{kl}c_{lj})=\sum_{k=1}^n \sum_{l=1}^p a_{ik}b_{kl}c_{lj}

Con lo que verificamos que (1) y (2) son iguales y se cumple la propiedad asociativa:

(AB)C=A(BC)\,

El producto de dos matrices generalmente no es conmutativo, es decir, AB ≠ BA.

AB_{}^{} =  \begin{pmatrix}
 1 & 1 \\
 0 & 1
 \end{pmatrix} \cdot  \begin{pmatrix}
 1 & 0 \\
 1 & 1
 \end{pmatrix} =  \begin{pmatrix}
 2 & 1 \\
 1 & 1
 \end{pmatrix} y por el contrario BA_{}^{} =  \begin{pmatrix}
 1 & 0 \\
 1 & 1
 \end{pmatrix} \cdot  \begin{pmatrix}
 1 & 1 \\
 0 & 1
 \end{pmatrix} =  \begin{pmatrix}
 1 & 1 \\
 1 & 2
 \end{pmatrix}

La división entre matrices, es decir, la operación que podría producir el cociente A / B, no se encuentra definida. Sin embargo, existe el concepto de matriz inversa, sólo aplicable a las matrices invertibles.

Finalmente, note que tanto la multiplicación de una matriz por un escalar, como la multiplicación de dos escalares, puede representarse mediante una multiplicación de dos matrices:

kA_{}^{} = (kI)A_{}^{} =  \begin{pmatrix}
 k & 0 & \cdots & 0 \\
 0 & k & \cdots & 0 \\
 \vdots & \vdots & \ddots & \vdots \\
 0 & 0 & \cdots & k
 \end{pmatrix} \cdot  \begin{pmatrix}
 a_{1 1} & \cdots & a_{1 n} \\
 \vdots & \ddots & \vdots \\
 a_{n 1} & \cdots & a_{n n}
 \end{pmatrix} =  \begin{pmatrix}
 ka_{1 1} & \cdots & ka_{1 n} \\
 \vdots & \ddots & \vdots \\
 ka_{n 1} & \cdots & ka_{n n}
 \end{pmatrix}.

Aplicaciones[editar]

La multiplicación de matrices es muy útil para la resolución de sistemas de ecuaciones de muchas variables, dado que son muy cómodas para ser implementadas mediante un computador. El cálculo numérico se basa en gran parte de estas operaciones, al igual que poderosas aplicaciones tales como MATLAB. También actualmente se utiliza mucho en el cálculo de microarrays, en el área de bioinformática.

Sistemas de ecuaciones[editar]

Consideremos el caso más sencillo, el de las matrices cuadradas de orden 2, es decir cuando n = m = 2. Las aplicaciones lineales del plano real que, al punto M(x1,x2) hacen corresponder el punto N(y1,y2) se expresan como un sistema de dos ecuaciones con dos variables. Las matrices permiten escribirlos más rápidamente. Así, por ejemplo, el sistema:


\left \{
\begin{matrix}
y_1 = a x_1 + b x_2\\
y_2 = c x_1 + d x_2
\end{matrix}
\right.
   se escribe de forma matricial así:       
\begin{pmatrix}
  y_1\\
  y_2
\end{pmatrix}
=
\begin{pmatrix}
  a & b \\
  c & d
\end{pmatrix}
\begin{pmatrix}
  x_1\\
  x_2
\end{pmatrix}

Como se ve, en la notación matricial, las variables sólo aparecen una vez, así como el símbolo "=", y los signos "+" ni se escriben. Los ahorros de tiempo y energía no son enormes aquí, pero crecen con las dimensiones de la matriz.

Ahora bien, las aplicaciones lineales se pueden sumar, lo que daría la adición de las matrices que se definió arriba, pero no se pueden multiplicar. Sin embargo, existe otra operación, universal en el campo de las aplicaciones: la composición, es decir aplicar sucesivamente dos o más funciones a un objeto. Al componer:


\left \{
\begin{matrix}
z_1 = e y_1 + f y_2\\
z_2 = g y_1 + h y_2
\end{matrix}
\right.
\mbox{ con }
\left \{
\begin{matrix}
y_1 = a x_1 + b x_2\\
y_2 = c x_1 + d x_2
\end{matrix}
\right.

obtenemos:


\left \{
\begin{matrix}
z_1 = e(a x_1 + b x_2) + f(c x_1 + d x_2) = (ea + fc)x_1 + (eb + fd)x_2\\
z_2 = g(a x_1 + b x_2) + h(c x_1 + d x_2) = (ga + hc)x_1 + (gb + hd)x_2
\end{matrix}
\right.
lo que corresponde a la matriz: 
\begin{pmatrix}
  ea + fc & eb + fd\\
  ga + hc & gb + hd
\end{pmatrix}
Por lo tanto se define el producto de matrices así: 
\begin{pmatrix}
  e & f \\
  g & h
\end{pmatrix}\begin{pmatrix}
  a & b \\
  c & d
\end{pmatrix}
=
\begin{pmatrix}
  ea + fc & eb + fd\\
  ga + hc & gb + hd
\end{pmatrix}

Referencias[editar]

Enlaces externos[editar]

Wikilibros