Usuario:Wikiviciao/Taller 11

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda
  Principal   Discusión   Talleres   Artículos   Regalos   Útiles  

En álgebra lineal, el teorema de Perron-Frobenius, probado por Oskar Perron (1907) y Georg Frobenius (1912), afirma que una matriz cuadrada real con entradas positivas tiene un valor propio real único más grande y que el vector propio correspondiente puede elegirse para tener estrictamente componentes positivos, y también afirma una declaración similar para ciertas clases de matrices no negativas. Este teorema tiene importantes aplicaciones a la teoría de la probabilidad (ergodicidad de lo90as cadenas de Markov); a la teoría de sistemas dinámicos (subdesplazamientos de tipo finito ); a la economía (teorema de Okishio[1]​, condición de Hawkins-Simon[2]​); a la demografía (modelo de distribución de edad de la población de Leslie );[3]​ a las redes sociales (proceso de aprendizaje DeGroot), a los buscadores de Internet e incluso al ranking de equipos de fútbol[4]​. El primero en discutir el orden de los jugadores dentro de los torneos usando vectores propios de Perron-Frobenius es Edmund Landau .[5][6]

Declaración[editar]

Deje que positivo y no negativo describan respectivamente matrices con números reales exclusivamente positivos como elementos y matrices con números reales exclusivamente no negativos como elementos. Los valores propios de una matriz cuadrada real A son números complejos que componen el espectro de la matriz. La tasa de crecimiento exponencial de la matriz potencia Ak as k → ∞ está controlada por el valor propio de A con el valor absoluto más grande (módulo). El teorema de Perron-Frobenius describe las propiedades del valor propio principal y de los vectores propios correspondientes cuando A es una matriz cuadrada real no negativa. Los primeros resultados se debieron a Oskar Perron (1907) y se referían a matrices positivas. Posteriormente, Georg Frobenius (1912) encontró su extensión a ciertas clases de matrices no negativas.[7]

Matrices positivas[editar]

Dejar frijol veces n matriz positiva: × . Entonces las siguientes declaraciones son válidas.

  1. Hay un número real positivo r , llamado raíz de Perron o autovalor de Perron-Frobenius (también llamado autovalor principal o autovalor dominante ), de manera que r es un autovalor de A y cualquier otro autovalor λ (posiblemente complejo ) en valor absoluto es estrictamente menor que r , | λ | < r. Por tanto, el radio espectral AT es igual a r. Si los coeficientes de la matriz son algebraicos, esto implica que el valor propio es un número de Perron.
  2. El valor propio de Perron-Frobenius es simple: r es una raíz del polinomio característico de A. En consecuencia, el espacio propio asociado a r es unidimensional. (Lo mismo es cierto para el espacio propio izquierdo, es decir, el espacio propio para AT , la transposición de A).
  3. Existe un vector propio v=(v1,...,vn) de A con valor propio r tal que todos los componentes de v son positivos: A v = rv, v i> 0 para 1 ≤ i ≤ n . (Respectivamente, existe un vector propio izquierdo positivo w: w T A = rw T, w i > 0.) Se conoce en la literatura bajo muchas variaciones como el vector de Perron , vector propio de Perron, Vector propio de Perron-Frobenius , vector propio principal o vector propio dominante.
  4. No hay otros autovectores positivos (además no negativos) excepto los múltiplos positivos de v (respectivamente, autovectores izquierdos excepto w), es decir, todos los demás autovectores deben tener al menos un componente negativo o no real.
  5. , donde los vectores propios izquierdo y derecho para A están normalizados de modo que w T v = 1. Además, la matriz vw T es la proyección sobre el espacio propio correspondiente a r . Esta proyección se llama proyección Perron.
  6. Fórmula de CollatzWielandt : para todos los vectores x no negativos no nulos, sea f ( x ) el valor mínimo de [Ax] i/xi tomado sobre todos aquellos i tales que x i 0. Entonces f es un valor real función valorada cuyo máximo sobre todos los vectores x no negativos distintos de ceroes el valor propio de Perron-Frobenius.
  7. Una fórmula Collatz-Wielandt "Mín-máx" ​​toma una forma similar a la anterior: para todos los vectores estrictamente positivos x , sea g (x) el valor máximo de [Ax] i/x i tomado sobre i . Entonces g es una función con valor real cuyo mínimo sobre todos los vectores estrictamente positivos x es el valor propio de Perron-Frobenius.
  8. Birkhoff - Varga fórmula:Sean x e y vectores estrictamente positivos. Entonces:[8]
  9. Donsker, Varadhan y S. Friedland fórmulan: Que p sea un vector de probabilidad y x un vector estrictamente positivo. Entonces:[9][10]
  10. Fórmula de Fiedler, [11]
  11. El valor propio de Perron-Frobenius satisface las desigualdades.

Todas estas propiedades se extienden más allá de las matrices estrictamente positivas a las matrices primitivas (ver más abajo). Los hechos 1-7 se pueden encontrar en Meyer, capítulo 8[12]​, afirmaciones 8.2.11-15, página 667, y ejercicios 8.2.5, 7,9, páginas 668-669.

Los vectores propios izquierdo y derecho w y v a veces se normalizaron de manera que la suma de sus componentes es igual a 1; en este caso, a veces se denominan autovectores estocásticos . A menudo se normalizan de modo que el vector propio derecho v suma uno, mientras que .

Matrices no negativas[editar]

Existe una extensión para matrices con entradas no negativas. Dado que cualquier matriz no negativa puede obtenerse como límite de matrices positivas, se obtiene la existencia de un vector propio con componentes no negativos; el valor propio correspondiente será no negativo y mayor o igual , en valor absoluto, a todos los demás valores propios.[13][14]​Sin embargo, para el ejemplo , el valor propio máximo r = 1 tiene el mismo valor absoluto que el otro valor propio −1; mientras que para, el valor propio máximo es r = 0, que no es una raíz simple del polinomio característico, y el vector propio correspondiente (1, 0) no es estrictamente positivo.

Sin embargo, Frobenius encontró una subclase especial de matrices no negativas, matrices irreducibles, para las que es posible una generalización no trivial. Para tal matriz, aunque los valores propios que alcanzan el valor absoluto máximo pueden no ser únicos, su estructura está bajo control: tienen la forma , donde r es realmente estrictamente positivo, y es un valor propio real estrictamente positivo, y rangos sobre las raíces h- ésimas complejas de 1 para algún entero positivo h llamado período de la matriz. El vector propio correspondiente a r tiene componentes estrictamente positivos (en contraste con el caso general de matrices no negativas, donde los componentes son solo no negativos). Además, todos estos valores propios son raíces simples del polinomio característico. A continuación se describen otras propiedades.

Clasificación de matrices[editar]

Sea A una matriz cuadrada (no necesariamente positiva o incluso real). La matriz A es irreducible si se cumple alguna de las siguientes propiedades equivalentes.

Definición 1: A no tiene subespacios de coordenadas invariantes no triviales. Aquí, un subespacio vectorial de coordenadas no trivial significa un subespacio lineal abarcado por cualquier subconjunto adecuado de vectores de base estándar de . Más explícitamente, para cualquier subespacio lineal generado por vectores de base estándar ei1 , ..., eik, 0 < k < n, su imagen bajo la acción de A no está contenida en el mismo subespacio vectorial.

De manera equivalente, la representación de grupo de en dada por no tiene subespacios de coordenadas invariantes no triviales. (En comparación, esto sería una representación irreductible si no hubiera subespacios invariantes no triviales en absoluto, no solo considerando los subespacios de coordenadas).

Definición 2: A no se puede conjugar en forma triangular superior de bloque mediante una matriz de permutación P:

donde E y G son matrices cuadradas no triviales (es decir, de tamaño mayor que cero).

Si A no es negativo, se aplica otra definición:

Definición 3: Uno puede asociarse con una matriz A un cierto grafo dirigido G A. Tiene exactamente n vértices, donde n es el tamaño de A , y hay una arista desde el vértice i al vértice j precisamente cuando A ij > 0. Entonces la matriz A es irreducible si y solo si su grafo asociado G A está fuertemente conectado .

Una matriz es reducible si no es irreducible.

Una matriz A es primitiva si no es negativa y su potencia m es positiva para algún número natural m (es decir, todas las entradas de A m son positivas).

Sea A no negativo. Fije un índice i y defina el período del índice i como el máximo común divisor de todos los números naturales m tal que (A m) ii > 0. Cuando A es irreducible, el período de cada índice es el mismo y se llama período de A . De hecho, cuando A es irreductible, el período se puede definir como el máximo común divisor de las longitudes de los caminos cerrados dirigidos en G A (ver Cocinas [15]​página 16). El período también se denomina índice de imprimitividad ([12]​Meyer página 674) o el orden de ciclicidad. Si el período es 1, A es aperiódico. Se puede demostrar que las matrices primitivas son las mismas que las matrices irreductibles aperiódicas no negativas.

Todos los enunciados del teorema de Perron-Frobenius para matrices positivas siguen siendo verdaderos para matrices primitivas. Las mismas declaraciones también son válidas para una matriz irreductible no negativa, excepto que puede poseer varios valores propios cuyo valor absoluto es igual a su radio espectral, por lo que las declaraciones deben modificarse en consecuencia. De hecho, el número de esos valores propios es igual al período.

Los resultados de las matrices no negativas fueron obtenidos por primera vez por Frobenius en 1912.

Teorema de Perron-Frobenius para matrices no negativas irreducibles[editar]

Deje que A sea un irreducible no negativo n × n matriz con período h y espectral radio ρ (A) = r . Entonces las siguientes declaraciones son válidas.

  1. El número r es un número real positivo y es un valor propio de la matriz A, llamado valor propio de Perron-Frobenius.
  2. El valor propio r de Perron-Frobenius es simple. Ambos espacios propios, derecho e izquierdo, asociados con r son unidimensionales.
  3. A tiene un vector propio derecho v con un valor propio r cuyas componentes son todas positivas.
  4. Asimismo, A tiene un autovector izquierdo w con autovalor r cuyos componentes son todos positivos.
  5. Los únicos autovectores cuyos componentes son todos positivos son los asociados con el autovalor r.
  6. La matriz A tiene exactamente h (donde h es el período) valores propios complejos con valor absoluto r. Cada uno de ellos es una raíz simple del polinomio característico y es el producto de r con una h- ésima raíz de la unidad.
  7. Sea ω=2π/h. Entonces la matriz A es similar a e A , en consecuencia, el espectro de A es invariante bajo la multiplicación por e (correspondiente a la rotación del plano complejo por el ángulo ω).
  8. Si h>1 entonces existe una matriz de permutación P tal que
donde los bloques a lo largo de la diagonal principal son matrices cuadradas cero.
9. Fórmula de Collatz –Wielandt: para todos los vectores no negativos no nulos x sea f(x) el valor mínimo de [Ax] i/x i tomado sobre todos aquellos i tales que xi≠0. Entonces f es un función de valor real cuyo máximo es el valor propio de Perron-Frobenius.
10. El valor propio de Perron-Frobenius satisface las desigualdades

El ejemplo muestra que las matrices cero (cuadradas) a lo largo de la diagonal pueden ser de diferentes tamaños, los bloques Aj no necesitan ser cuadrados y h no necesita dividir n.

Más propiedades[editar]

Sea A una matriz no negativa irreducible, entonces:

  1. (I+ A) n −1 es una matriz positiva. (Meyer reclamación [12]​ 8.3.5 p. 672 ).
  2. Teorema de Wielandt.[cita requerida]Si |B|< A, entonces ρ (B)≤ρ (A). Si se cumple la igualdad (es decir, si μ = ρ (A) e es el valor propio de B), entonces B=e D AD −1 para alguna matriz unitaria diagonal D (es decir, los elementos diagonales de D son iguales a e l, no diagonales son cero).[16]
  3. Si alguna potencia Aq es reducible, entonces es completamente reducible, es decir, para alguna matriz de permutación P , es cierto que:, donde Ai son matrices irreducibles que tienen el mismo valor propio máximo. El número de estas matrices d es el máximo común divisor de q y h, donde h es el período de A. [17]
  4. Si c (x)=xn+ck1 x n-k 1 + c k 2 x n-k 2 + ... + c ks x n-k s es el polinomio característico de A en el que solo se enumeran los términos distintos de cero, entonces el período de A es igual al máximo común divisor de k 1, k 2 , ..., k s. [18]
  5. Promedios Cesàro: donde los vectores propios izquierdo y derecho para A están normalizados de modo que w T v= 1. Además, la matriz vwT es la proyección espectral correspondiente ar, la proyección de Perron.[19]
  6. Sea r el valor propio de Perron-Frobenius, entonces la matriz adjunta para (r-A) es positiva.[20]
  7. Si A tiene al menos un elemento diagonal distinto de cero, entonces A es [21]
  8. Si 0 ≤ A < B, entonces r Ar B. Por otra parte, si B es irreducible, entonces la desigualdad es estricta: r A <r B.

Una matriz A es primitiva siempre que no sea negativa y A m sea ​​positiva para algunos m, y por lo tanto A k sea ​​positiva para todo km. Para verificar la primitividad, se necesita un límite de cuán grande puede ser el mínimo de tal m, dependiendo del tamaño de A:

  • Si A es una matriz primitiva no negativa de tamaño n, entonces An2 − 2n + 2 es positiva. Además, este es el mejor resultado posible, ya que para la matriz M siguiente, la potencia M k no es positiva para cada k < n2 − 2n + 2, ya que (Mn2 − 2n+1)11 = 0.[18]

Aplicaciones[editar]

Se han escrito numerosos libros sobre el tema de las matrices no negativas, y la teoría de Perron-Frobenius es invariablemente una característica central. Los siguientes ejemplos que se dan a continuación solo muestran la superficie de su vasto dominio de aplicación.

Matrices no negativas[editar]

El teorema de Perron-Frobenius no se aplica directamente a matrices no negativas. Sin embargo, cualquier matriz cuadrada reducible A puede escribirse en forma de bloque triangular superior (conocida como la forma normal de una matriz reducible). [22]

PAP−1 =

donde P es una matriz de permutación y cada B i es una matriz cuadrada que es irreducible o cero. Ahora bien, si A no es negativo, también lo es cada bloque de PAP −1, además, el espectro de A es solo la unión de los espectros de B i.

También se puede estudiar la invertibilidad de A. La inversa de PAP -1 (si existe) debe tener bloques diagonales de la forma B i -1 así que si cualquier B i no es invertible entonces tampoco es PAP -1 o A. Por el contrario, sea D la matriz diagonal de bloques correspondiente a PAP −1, en otras palabras, PAP −1 con los asteriscos en cero. Si cada B i es invertible, entonces también lo es D y D −1 (PAP −1) es igual a la identidad más una matriz nilpotente. Pero tal matriz es siempre invertible (si N k=0 el inverso de 1-N es 1+N+N2 + ... + N k −1) por lo que PAP −1 y A son ambos invertibles.

Por tanto, muchas de las propiedades espectrales de A pueden deducirse aplicando el teorema al B i irreducible. Por ejemplo, la raíz de Perron es el máximo de ρ (B i). Si bien todavía habrá vectores propios con componentes no negativos, es muy posible que ninguno de estos sea positivo.

Matrices estocásticas[editar]

Una matriz estocástica de filas (columnas) es una matriz cuadrada, cada una de cuyas filas (columnas) consta de números reales no negativos cuya suma es la unidad. El teorema no se puede aplicar directamente a tales matrices porque no necesitan ser irreductibles.

Si A es estocástico por filas, entonces el vector de columna con cada entrada 1 es un vector propio correspondiente al valor propio 1, que también es ρ (A) según la observación anterior. Puede que no sea el único valor propio en el círculo unitario: y el espacio propio asociado puede ser multidimensional. Si A es estocástico por filas e irreductible, entonces la proyección de Perron también es estocástica por filas y todas sus filas son iguales.

Teoría de grafos algebraicos[editar]

El teorema tiene un uso particular en la teoría de grafos algebraicos . La "gráfica subyacente" de una matriz n- cuadrada no negativa es la gráfica con vértices numerados 1, ..., ny arc ij si y solo si A ij ≠ 0. Si la gráfica subyacente de dicha matriz está fuertemente conectada, entonces la matriz es irreducible y, por tanto, se aplica el teorema. En particular, la matriz de adyacencia de un gráfico fuertemente conectado es irreducible.[23][24]

Cadenas finitas de Markov[editar]

El teorema tiene una interpretación natural en la teoría de las cadenas de Markov finitas (donde es el equivalente teórico de matrices de la convergencia de una cadena de Markov finita irreductible a su distribución estacionaria, formulada en términos de la matriz de transición de la cadena.[25]

Operadores compactos[editar]

De manera más general, se puede extender al caso de los operadores compactos no negativos, que, en muchos sentidos, se parecen a las matrices de dimensión finita. Estos se estudian comúnmente en física, bajo el nombre de operadores de transferencia, o en ocasiones operadores de Ruelle-Perron-Frobenius (después de David Ruelle). En este caso, el valor propio principal corresponde al equilibrio termodinámico de un sistema dinámico, y los valores propios menores a los modos de desintegración de un sistema que no está en equilibrio. Por lo tanto, la teoría ofrece una manera de descubrir la flecha del tiempo en lo que de otro modo parecerían ser procesos dinámicos deterministas y reversibles, cuando se examina desde el punto de vista detopología de conjunto de puntos.[26]

Métodos de prueba[editar]

Un hilo común en muchas demostraciones es el teorema del punto fijo de Brouwer. Otro método popular es el de Wielandt (1950). Usó la fórmula de Collatz- Wielandt descrita anteriormente para ampliar y aclarar el trabajo de Frobenius.[27]​ Otra prueba se basa en la teoría espectral[28]​ de la que se toman prestados parte de los argumentos.

La raíz de Perron es un valor propio estrictamente máximo para matrices positivas (y primitivas)[editar]

Si A es una matriz positiva (o más generalmente primitiva), entonces existe un valor propio positivo real r ( valor propio de Perron-Frobenius o raíz de Perron), que es estrictamente mayor en valor absoluto que todos los demás valores propios, por lo que r es el radio espectral de Una.

Esta declaración no se mantiene para matrices irreducibles no negativos generales, que tienen h valores propios con el mismo valor propio absoluta como r, donde h es el período de A.

Prueba de matrices positivas[editar]

Sea A una matriz positiva, suponga que su radio espectral ρ (A)=1 (de lo contrario, considere A/ρ (A)). Por lo tanto, existe un valor propio λ en el círculo unitario, y todos los demás valores propios son menores o iguales a 1 en valor absoluto. Suponga que otro valor propio λ ≠ 1 también cae en el círculo unitario. Entonces existe un entero positivo m tal que A m es una matriz positiva y la parte real de λ m es negativa. Sea εI la mitad de la entrada diagonal más pequeña de A my establezca T=A m-εI, que es otra matriz positiva. Además, si Ax= Λx entonces A mx = λ m x así λ m-ε es un valor propio de T. Debido a la elección de m, este punto se encuentra fuera del disco unitario, por lo tanto, ρ (T)> 1. Por otro lado, todas las entradas en T son positivas y menores o iguales a las de A m, por lo que según la fórmula de Gelfand ρ (T)≤''ρ (A m)≤ ρ (A) m=1. Esta contradicción significa que λ=1 y no puede haber otros valores propios en el círculo unitario.

Absolutamente los mismos argumentos se pueden aplicar al caso de matrices primitivas; solo necesitamos mencionar el siguiente lema simple, que aclara las propiedades de las matrices primitivas.

Lema[editar]

Dado un número no negativo A, asumen que m existe, de manera que un m es positivo, entonces Am+1,Am+2, Am+3,... son todos positivos.

Am+1=AAm, por lo que puede tener un elemento cero solo si alguna fila de A es completamente cero, pero en este caso la misma fila de A m será cero.

Aplicando los mismos argumentos anteriores para matrices primitivas, demuestre la afirmación principal.

Método de potencia y el par propio positivo[editar]

Para un positivo (o más generalmente irreducible no negativo) de la matriz A la dominante vector propio es real y estrictamente positivo (para no negativo A respectivamente no negativo.)

Esto se puede establecer utilizando el método de la potencia, que establece que para una matriz A suficientemente genérica (en el sentido siguiente), la secuencia de vectores bk+1 = Abk / | Abk | converge al vector propio con el valor propio máximo. (El vector inicial b 0 se puede elegir arbitrariamente, excepto para algún conjunto de medidas de cero). Comenzar con un vector no negativo b 0 produce la secuencia de vectores no negativos b k. Por tanto, el vector limitante tampoco es negativo. Por el método de la potencia, este vector limitante es el autovector dominante para A, lo que demuestra la afirmación. El valor propio correspondiente no es negativo.

La prueba requiere dos argumentos adicionales. Primero, el método de potencia converge para matrices que no tienen varios valores propios del mismo valor absoluto que el máximo. El argumento de la sección anterior lo garantiza.

En segundo lugar, asegurar la positividad estricta de todos los componentes del vector propio para el caso de matrices irreducibles. Esto se deriva del siguiente hecho, que es de interés independiente:

Lema: dado un positivo (o más generalmente irreducible no negativo) de la matriz A y v como cualquier vector propio no negativo para A, entonces es necesariamente estrictamente positivo y el correspondiente valor propio también es estrictamente positivo.

Prueba. Una de las definiciones de irreductibilidad para matrices no negativas es que para todos los índices i, j existe M, de modo que (A m) ij es estrictamente positivo. Dado un vector propio v no negativo, y que al menos uno de sus componentes dice que j -th es estrictamente positivo, el valor propio correspondiente es estrictamente positivo, de hecho, dado n tal que (A n) ii>0, por lo tanto:rnvi = Anvi ≥ (An)iivi >0. Por consiguiente r es estrictamente positivo. El vector propio es positividad estricta. Entonces dado m, tal que (Am)ij >0, de manera que: rmvj = (Amv)j ≥ (Am)ijvi >0, en consecuencia vj es estrictamente positivo, es decir, el vector propio es estrictamente positivo.

Multiplicidad uno[editar]

En esta sección se demuestra que el valor propio de Perron-Frobenius es una raíz simple del polinomio característico de la matriz. Por lo tanto, el eigespacio asociado al eigenvalor de Perron-Frobenius r es unidimensional. Los argumentos aquí son cercanos a los de Meyer.[29]

Dado un vector propio estrictamente positivo v correspondiente a r y otro vector propio w con el mismo valor propio. (Los vectores v y w pueden elegirse como reales, porque A y r son ambos reales, por lo que el espacio nulo de A-r tiene una base formada por vectores reales). Suponiendo que al menos una de las componentes de w sea positiva (en caso contrario, multiplicar w por -1). Dado el máximo posible α tal que u=v- α w es no negativo, entonces uno de los componentes de u es cero, en caso contrario α no es máximo. El vector u es un vector propio. Es no negativo, por lo que por el lema descrito en el sección anterior la no negatividad implica positividad estricta para cualquier vector propio. Por otro lado, como en el caso anterior, al menos una componente de u es cero. La contradicción implica que w no existe.

Caso: No hay celdas de Jordan correspondientes al valor propio de Perron-Frobenius r y todos los demás valores propios que tienen el mismo valor absoluto.

Si existe una celda de Jordan, entonces la Norma de infinito (A/r)k tiende a infinito para k → ∞, pero eso contradice la existencia del vector propio positivo.

Dado r = 1, o A/r. Dejando que v sea un eigenvector estrictamente positivo de Perron-Frobenius, por lo que Av=v, entonces:

Así que Ak está acotado para todo k. Esto da otra prueba de que no hay valores propios que tengan mayor valor absoluto que el de Perron-Frobenius. También contradice la existencia de la célula de Jordan para cualquier valor propio que tenga valor absoluto igual a 1 (en particular para el de Perron-Frobenius), porque la existencia de la célula de Jordan implica que Ak no está acotado. Para una matriz de dos por dos:

por lo que Jk = |k + λ| (para |λ| = 1), por lo que tiende a infinito cuando k lo hace. Como Jk = C-1 AkC, entonces AkJk/ (C-1 C ), por lo que también tiende a infinito. La contradicción resultante implica que no hay células de Jordan para los correspondientes valores propios.

La combinación de las dos afirmaciones anteriores revela que el valor propio de Perron-Frobenius r es una raíz simple del polinomio característico. En el caso de las matrices no primitivas, existen otros valores propios que tienen el mismo valor absoluto que r. La misma afirmación es válida para ellos, pero requiere más trabajo.

Referencias[editar]

  1. Google's PageRank and Beyond: The Science of Search Engine Rankings. Langville & Meyer 2006. 10 de julio de 2014. ISBN 978-0691122021. Consultado el 30 de noviembre de 2020. 
  2. Perron, Oskar (2000). «Perron–Frobenius Theory of Nonnegative Matrices» (en inglés). SIAM. Consultado el 29 de noviembre de 2020. 
  3. Bowles, Samuel (1 de junio de 1981). Technical change and the profit rate: a simple proof of the Okishio theorem (Impreso) (en inglés). Oxford. pp. 183-186. 
  4. Kenner, James P. (Marzo 1993). The Perron-Frobenius Theorem and the Ranking of Football Teams (Primera edición). SIAM Review. pp. 80-93. Consultado el 30 de noviembre de 2020. 
  5. Technical change and the profit rate: a simple proof of the Okishio theorem. Cambridge Journal of Economics. 
  6. Landau, Edmund (1915). «"Über Preisverteilung bei Spielturnieren"» (en inglés). Zeitschrift für Mathematik und Physik. Consultado el 29 de noviembre de 2020. 
  7. «DEMOSTRACIÓN DEL TEOREMA DE PERRON-FROBENIUS». matematicasypoesía.com.es. Consultado el 17 de octubre de 2020. 
  8. Varga, Richard S.; Birkhoff, Garett (1958). Reactor criticality and nonnegative matrices. (primera edición). Journal of the Society for Industrial and Applied Mathematics. pp. 354-377. 
  9. Donsker, M. D.; Varadhan, S. S. (1975). On a variational formula for the principal eigenvalue for operators with maximum principle (primera edición). Proceedings of the National Academy of Sciences. pp. 780—783. 
  10. Friedland, S. (1981). Convex spectral functions. Linear and multilinear algebra (Cuarta edición). pp. 299—316. 
  11. Miroslav Fiedler, Charles R. Jhonnson; Markham, Thomas L.; Neumann, Michael (1985). «A trace inequality for M-matrices and the symmetrizability of a real matrix by a positive diagonal matrix». 1985 71: 81—94. doi:10.1016/0024-3795(85)90237-X. Consultado el 1 de diciembre de 2020. 
  12. a b c Perron, Oskar (2000). «Perron–Frobenius Theory of Nonnegative Matrices pág. 665» (en inglés). SIAM. Consultado el 29 de noviembre de 2020. 
  13. Perron, Oskar (2000). «Perron–Frobenius Theory of Nonnegative Matrices pág. 670» (en inglés). SIAM. Consultado el 2 de diciembre de 2020. 
  14. Ruvimovich Gantmakher, Feliks (195o). «The Theory of matrices cap. 8» (Ilustrada, reimpresa). The Theory of Matrices (en inglés). Chelsea Publishing Company. p. 66. ISBN 9780821813935. Consultado el 2 de diciembre de 2020. 
  15. Cocinas, Bruce (6 de diciembre de 2012). Symbolic Dynamics: One-sided, Two-sided and Countable State Markov Shifts. Springer Science & Business Media. p. 16. ISBN 9783540627388. Consultado el 5 de diciembre de 2020. 
  16. Perron, Oskar (2000). «Perron–Frobenius Theory of Nonnegative Matrices pág. 675» (en inglés). SIAM. Consultado el 9 de diciembre de 2020. 
  17. K. A, Hirsch (1959). «5» (edición ilustrada, reimpresa). The Theory of Matrices, Volumen 1 (en inglés) (Volumen 1 edición). Chelsea Publishing Company,. p. sección XIII.5 teorema 9. ISBN 9780821813935. Consultado el 9 de diciembre de 2020. 
  18. a b Perron, Oskar (2000). «Perron–Frobenius Theory of Nonnegative Matrices pág. 679» (en inglés). SIAM. Consultado el 29 de noviembre de 2020. 
  19. Perron, Oskar (2000). «Perron–Frobenius Theory of Nonnegative Matrices pág. 677» (en inglés). SIAM. Consultado el 29 de noviembre de 2020. 
  20. K. A, Hirsch (1959). «5» (edición ilustrada, reimpresa). The Theory of Matrices, Volumen 1 (en inglés) (Volumen 1 edición). Chelsea Publishing Company,. p. sección XIII.5 página 62. ISBN 9780821813935. Consultado el 9 de diciembre de 2020. 
  21. Perron, Oskar (2000). «Perron–Frobenius Theory of Nonnegative Matrices pág. 678» (en inglés). SIAM. Consultado el 29 de noviembre de 2020. 
  22. Varga, Richard S. (2002). Matrix Iterative Analysis (Segunda edición). Springer-Verlag. 
  23. Brualdi, Richard A.; Ryse, Herbert J. (29 de julio de 2019). Combinatorial Matrix Theory (en inglés) (1991 edición). Cambridge:Cambridge University Perss. ISBN 978-0-521-32265-2. Consultado el 29 de diciembre de 2020. 
  24. Brualdi, Richard A.; Cvetkovic, Dragos (2009). A Combinatorial Approach to Matrix Theory and Its Applications (en inglés). FL: CRC Press. ISBN 978-1-4200-8223-4. 
  25. Valentina Vega, Maria; Fraiman, Ricardo (26 de abril de 2004). Cadenas de Markov de tiempo continuo y aplicaciones (pdf). colibri.udelar.edu.uy. Consultado el 29 de diciembre de 2020. 
  26. Mackey, Michael C (1992). Time's Arrow: The origins of thermodynamic behaviour. (en inglés). New York: Springer-Verlag. ISBN 978-0-387-97702-7. 
  27. K. A, Hirsch (1959). «5» (edición ilustrada, reimpresa). The Theory of Matrices, Volumen 1 (en inglés) (Volumen 1 edición). Chelsea Publishing Company,. p. sección XIII.5 página 54. ISBN 9780821813935. Consultado el 29 de diciembre de 2020. 
  28. Roger, Smith (2006). A Spectral Theoretic Proof of Perron–Frobenius (pdf) (en inglés) 102. Mathematical Proceedings of the Royal Irish Academy. pp. 29-35. doi:10.3318/PRIA.2002.102.1.29. Consultado el 29 de diciembre de 2020. 
  29. Meyer, 2000, pp. Capítulo 8 pág 665 «Copia archivada». Archivado desde el original el 7 de marzo de 2010. Consultado el 3 de julio de 2010. 

{{Control de autoridades}} [[Categoría:Teoría de matrices]] [[Categoría:Teoremas en álgebra lineal]] [[Categoría:Procesos de Markov]]