Teorema de Lochs

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En teoría de números, el teorema de Lochs es un teorema que se refiere a la tasa de convergencia de la expansión en fracción continua de un número real típico. El teorema fue probado por Gustav Lochs en 1964.[1]

El teorema establece que para casi todos los números reales en el intervalo (0,1), la cantidad m de términos de la expansión en fracción continua de un número que se necesitan para determinar los primeros n lugares de la expansión decimal de dicho número se comporta asintóticamente de la siguiente manera:

\lim_{n \rightarrow \infty} \frac{m}{n} = \frac {6 \ln 2 \ln 10}{ \pi^2} \approx 0,97027014\, .[2] [3]

Conforme este límite es ligeramente menor a 1, se puede interpretar como si dijéramos que cada término adicional en la representación en fracción continua de un número real «típico» incrementa la precisión de la representación por aproximadamente un lugar decimal. El sistema decimal es el último sistema posicional para el cual cada dígito porta menos información que un cociente de fracción continua. Utilizando una base 11 (cambiando \ln 10 por \ln 11 en la ecuación) hace que el valor de arriba sobrepase el valor de 1.

el recíproco de este límite,

\frac { \pi^2}{6 \ln 2 \ln 10} \approx 1,03064083\, ,[4]

es el doble del logaritmo en base 10 de la constante de Lévy.

Referencias[editar]

Notas[editar]

  1. Lochs, G. Abh. Hamburg Univ. Math. Sem. 27, 142-144, 1964
  2. Weisstein, Eric W. «Lochs' Theorem» (en inglés). MathWorld. Wolfram Research.
  3. (sucesión A086819 en OEIS)
  4. (sucesión A062542 en OEIS)