Invariante algebraico (álgebra lineal)

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

Un invariante algebraico es una función polinómica de las componentes de la matriz de una aplicación lineal, no depende de la base vectorial escogida para representar la aplicación lineal en forma de matriz. En otras palabras, un invariante algebraico es una cierta combinación de las componentes de una matriz cuyo valor numérico no queda alterado al hacer un cambio de base, y de ahí el nombre de invariante.

Introducción[editar]

Dado un endomorfismo o aplicación lineal de un espacio vectorial en sí mismo (es decir, un endomorfismo), dicha aplicación se puede representar como en un conjunto de números fijada una base vectorial. Sin embargo, la misma aplicación se expresa por diferentes componentes en diferentes bases, ya que las componentes no son intrínsecas a la aplicación lineal. Afortunadamente, existen algunas combinaciones en forma de sumas y productos de las componentes que son iguales en todas las bases. Estas combinaciones son precisamente los invariantes algebraicos. Por ejemplo, es un hecho bien conocido que si \mathbf{A}_f y \mathbf{B}_f es la matriz de componentes de una aplicación lineal f\, expresada en cierta base y \mathbf{C} es una matriz invertible que representa un cambio de base, entonces:

\det \mathbf{B}_f = \det \mathbf{C}\mathbf{A}_f\mathbf{C}^{-1} =
\det \mathbf{C}\mathbf{C}^{-1}\mathbf{A}_f = \det \mathbf{A}_f

Es decir, el determinante es una combinación de componentes de las matrices de componentes que resulta independiente de la base y por tanto es un invariante algebraico. Los invariantes algebraicos más comunes son:

Una aplicación lineal representable por una matriz cuadrada n \times n admite al menos n\, invariantes algebraicos. Más aún cualquier función polinómica de estos invariantes es un nuevo invariante algebraico funcionalmente independiente de los anteriores.

Invariantes básicos de una matriz[editar]

Dada una aplicación lineal F:\R^n\to\R^n, y fijada una base vectorial \mathcal{B} se define el polinomio característico de dicha de la aplicación en dicha base simplemente como:

P_{F,\mathcal{B}}(\lambda) = (-1)^n \det (\mathbf{A} - \lambda \mathbf{I}) =
\lambda^n + p_1\lambda^{n-1}+ \dots + p_{n-1}\lambda + p_n

Este polinomio será un polinomio mónico de grado n en la variable \lambda^n. Puede demostrarse de forma bastante sencilla que dicho polinomio no depende de la base vectorial escogida. Es decir, dada otra base vectorial \mathcal{V} se tiene que:

P_{F,\mathcal{B}}(\lambda) = P_{F,\mathcal{V}}(\lambda)

Eso implica que cada uno de los coeficientes p_1, \dots, p_n\, constituye un invariante algebraico.

Forma explícita de los invariantes básicos[editar]

Puede demostrarse además que cada uno de los p_k\, es una polinomio de grado k en las componentes de la matriz que representa la aplicación lineal. Así si la F:\R^n\to\R^n se representa por la matriz \mathcal{A} =[a_{ij}], el primer coeficiente no trivial del polinomio característico, llamado invariante lineal o primer invariante, coincide con la traza de la matriz, salvo signo:

 p_1(a_{ij}) = -(a_{11} + a_{22} + \dots + a_{nn}) = -I_1 = -\mbox{tr}\ \mathbf{A}

El segundo coeficiente no trivial, llamado invariante cuadrático o segundo invariante viene dado por:

 p_2(a_{ij}) = a_{11}a_{22} + \dots + a_{11}a_{n,n}+ a_{22}a_{33} + \dots + a_{n-1,n-1}a_{nn} -a_{12}a_{21} -\dots - a_{n,n-1}a_{n-1,n}  = I_2

El invariante n-ésimo coincide con el determinante de la matriz salvo signo:

 p_n(a_{ij}) = (-1)^n\det\ \mathbf{A} = (-1)^n I_n

El invariante (n-1)-ésimo puede calcularse a partir de la matriz de adjuntos:

 p_{n-1}(a_{ij}) = (-1)^{n-1}\mbox{tr}\ \mbox{adj}(\mathbf{A}) = (-1)^{n-1} I_{n-1}

El invariante k-ésimo puede expresarse en general como un polinomio homogéneo de grado k, más concretamente tenemos que:

 p_k(a_{ij}) = (-1)^k \sum_{\sigma\in S_n} 
\epsilon(\sigma)a_{1\sigma(1)} a_{2\sigma(2)} \dots a_{n\sigma(n)} = (-1)^k I_k, \qquad 1 \le k \le n

Donde:

\sigma\in S^n, es cualquier permutación del grupo simétrico de orden n.
\epsilon(\sigma)\,, es la signatura de la permutación.
\sigma(i)\,, es la imagen del índice i bajo la permutación σ.

Matrices diagonalizables[editar]

Las fórmulas anteriores se simplifican notablemente cuando se consideran endomorfismos diagonalizables para los que es posible fijar alguna base en que la matriz que representa el endomorfismo venga dada por:

\mathbf{A} = \begin{bmatrix}
\lambda_1 & 0 & \dots & 0\\
0 & \lambda_2 & \dots & 0\\
\dots & \dots & \dots & \dots\\
0 & 0 & \dots & \lambda_n
\end{bmatrix}

Ya que en ese caso se tiene:

\begin{cases}
I_1 = \sum_{j=1}^n \lambda_j = \lambda_1+\dots+\lambda_n \\
I_2 = \sum_{j=1}^n \sum_{k=j+1}^n \lambda_j\lambda_k \\
\dots\\
I_n = \lambda_1\lambda_2\dots\lambda_n
\end{cases}

Fórmulas prácticas para el cálculo[editar]

Dada una matriz en forma no diagonal el cálculo de los invariantes algebraicos básicos puede resultar pesado especialmente cuando n \ge 4 por lo que conviene tener algunas fórmulas prácticas:

\begin{cases}
I_1(\mathbf{A}) = \mbox{tr}(\mathbf{A}) \\
I_2(\mathbf{A}) = \frac{1}{2!}[\mbox{tr}(\mathbf{A})^2 -  \mbox{tr}(\mathbf{A}^2)]\\
I_3(\mathbf{A}) = \frac{1}{3!}[\mbox{tr}(\mathbf{A})^3 -
3\mbox{tr}(\mathbf{A}^2)\mbox{tr}(\mathbf{A}) + 2\mbox{tr}(\mathbf{A}^3)] \\
I_4(\mathbf{A}) = \frac{1}{4!}[\mbox{tr}(\mathbf{A})^4 - 6\mbox{tr}(\mathbf{A})^2\mbox{tr}(\mathbf{A}^2) +
3\mbox{tr}(\mathbf{A}^2)^2 + 8 \mbox{tr}(\mathbf{A}) \mbox{tr}(\mathbf{A}^3) - 6 \mbox{tr}(\mathbf{A}^4)] \end{cases}

En general el invariante n-ésimo será una función homogénea de grado n consistente en sumandos de productos de n componentes de la matriz. Si bien pueden escribirse fórmulas directas, siempre es más práctico o bien encontrar la forma de Jordan de la matriz y usar los valores propios, o expreasr el invariante n-ésimo de \mathbf{A} en términos de las potencias \mathbf{A}, \mathbf{A}^2\, \dots, \mathbf{A}^n como en las fórmulas anteriores.

Construcción de invariantes[editar]

Puede demostrarse por el teorema de dependencia funcional que para una matriz diagonal o enfomorfismo diagonalizable en que todos sus autovalores son distintos cualquier otro invariante algebraico resulta ser una función de los n invariantes algebraicos considerados en la sección anterior y que coinciden con los coeficientes del polinomio característico:

I_{alg} = \phi(I_1,\dots,I_n)\,

En el caso más general de un endomorfismo diagonalizable con sólo k valores diferentes entonces los k primeros invariantes algebraicos son funcionalmente independientes y podemos escribir para cualquier otro invariante algebraico:

I_{alg} = \phi(I_1,\dots,I_k)\, \qquad k\le n

Estas dos últimas igualdades pueden deducirse del hecho de que el siguiente determinante:

\begin{vmatrix}
\frac{\part I_1}{\part \lambda_1} & \dots & \frac{\part I_1}{\part \lambda_n}\\
\frac{\part I_2}{\part \lambda_1} & \dots & \frac{\part I_2}{\part \lambda_n}\\
\dots & \dots & \dots\\
\frac{\part I_n}{\part \lambda_1} & \dots & \frac{\part I_n}{\part \lambda_n}
\end{vmatrix} = \prod_{0\le j < i \le n} (\lambda_i-\lambda_j)

Puede reducirse a un determinante de Vandermonde, y el máximo menor diferente de cero que puede construirse tiene el mismo orden que el número de autovalores diferentes del endomorfismo.

Invariantes no algebraicos[editar]

Usualmente se consideran sólo invariantes algebraicos que de una aplicación lineal que pueden expresarse como funciones polinómicas de las componentes de la matriz que representa la aplicación en una determinada base. Si admitimos funciones no necesariamente polinómicas aparecen nuevos invariantes no algebraicos.

Por ejemplo en rango de una aplicación lineal es un número entero independiente de la base escogida para calcular dicho rango. De hecho para una matriz diagonalizable el rango coincide con el número de autovalores no nulos, que obviamente no es una función polinómica de dichos valores.

Ver también[editar]


Referencias[editar]

Bibliografía[editar]

  • Q. S. Zheng (1994): "Theory of representations for tensor functions - A unified invariant approach", Appl Mech Rev 47.