Análisis de frecuencias

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Frecuencia de las letras en un texto inglés.
Frecuencia de las letras en un texto español.

En el criptoanálisis, la técnica de análisis de frecuencias consiste en el aprovechamiento de estudios sobre la frecuencia de las letras o grupos de letras en los idiomas para poder establecer hipótesis para aprovecharlas para poder descifrar un texto cifrado sin tener la clave de descifrado (romper). Es un método típico para romper cifrados clásicos.

El análisis de frecuencias está basado en el hecho de que, dado un texto, ciertas letras o combinaciones de letras aparecen más a menudo que otras, existiendo distintas frecuencias para ellas. Es más, existe una distribución característica de las letras que es prácticamente la misma para la mayoría de ejemplos de ese lenguaje. Por ejemplo, en inglés la letra E es muy común, mientras que la X es muy rara. Igualmente, las combinaciones ST, NG, TH y QU son pares de letras comunes, mientras que NZ y QJ son raros. La frase mnemotécnica "ETAOIN SHRDLU" agrupa las doce letras más frecuentes en los textos ingleses. En español, las vocales son muy frecuentes, ocupando alrededor del 45 % del texto, siendo la E y la A las que aparecen en más ocasiones, mientras que la frecuencia sumada de F, Z, J, X, W y K no alcanza el 2 %. La regla mnemotécnica para el español sería "EAOSR NIDLC" o bien "EAOSN RILDUT".

En algunos cifradores, las propiedades naturales del texto plano se preservan en el texto cifrado. Dichos esquemas pueden ser potencialmente objeto de ataques de sólo texto cifrado.

Análisis de frecuencia para algoritmos de sustitución simple[editar]

En un algoritmo de sustitución simple, cada letra del texto plano se reemplaza por otra y una letra dada del texto plano siempre será transformada en la misma letra en el mensaje cifrado. Por ejemplo, todas las e se convertirán en X. Un texto cifrado con una alta frecuencia de letras X podría sugerir al criptoanalista que la X representa a la letra e.

El uso básico del análisis de frecuencias consiste en primero calcular la frecuencia de las letras que aparecen en el texto cifrado y luego asociar letras de texto plano a ellas. Una gran frecuencia de X podría sugerir que las X son e, pero esto no es siempre cierto, ya que las letras a y o tienen una frecuencia muy alta también en español. Sin embargo, si será difícil que las X representen, en este caso a la k o a la w. Por ello, el criptoanalista podría tener que intentar varias combinaciones hasta descifrar el texto.

Estadísticas más complejas podrían ser usadas, como considerar los pares de letras o incluso tríos. Esto se realiza para proporcionar más información al criptoanalista. Por ejemplo, las letras q y u van casi siempre juntas en español, mientras que la q sola es muy rara.

Uso en la Historia[editar]

Primera página de Un manuscrito para el descifrado de mensajes criptográficos, de Al-Kindi.

La primera explicación bien documentada del análisis de frecuencias (de hecho de cualquier tipo de criptoanálisis) fue dada en el siglo IX por el filósofo árabe Al-Kindi en Un manuscrito para el descifrado de mensajes criptográficos (Ibraham, 1992). Se ha sugerido que el estudio intento del Corán desveló que el árabe tenía una característica frecuencia de letras. Su uso se extendió y fue tan usado en Europa durante el Renacimiento que se inventaron pautas para tratar de burlar el estudio de las frecuencias. Éstas incluían:

  • El uso de alternativas para las letras más comunes. Así, por ejemplo, las letras X e Y encontradas en el texto cifrado podrían significar E en el texto plano.
  • Cifrado polialfabético, esto es, el uso de varios alfabetos para el cifrado. Leone Alberti parece ser el primero en sugerir esto.
  • Sustitución poligráfica, esquemas donde pares o tríos de letras eran cifradas como una única unidad. Por ejemplo, el cifrado de Playfair, inventado por Charles Wheatstone a mediados del siglo XIX.

Una desventaja de todos estos intentos de derrotar el análisis de frecuencias es que complicaban tanto el cifrado como el descifrado de los datos, provocando errores.

Las máquinas de rotores de la primera mitad del siglo XX (por ejemplo, Enigma) eran esencialmente inmunes al análisis de frecuencias directo, aunque otros tipos de análisis consigueron decodificar los mensajes de tales aparatos.

El análisis de frecuencias sólo requiere un conocimiento básico de las estadísticas del texto plano y cierta pericia resolviendo problemas. Durante la Segunda Guerra Mundial, tanto los británicos como los estadounidenses reclutaron rompecódigos colocando puzzles y crucigramas en los periódicos y realizando concursos para ver quien los resolvía más rápidamente. Muchos de los cifrados usados por el Eje eran vulnerables al análisis de frecuencias (por ejemplo, algunos de los mensajes cifrados usados por los consulados japoneses). Los métodos mecánicos del conteo de letras y el análisis de las estadísticas (generalmente máquinas de tarjetas perforadas de IBM) fueron usadas durante la II Guerra Mundial, siendo probablemente los miembros del SIS norteamericano los pioneros. Hoy en día, el trabajo de contar letras y analizar frecuencias ha sido dejado a programas informáticos, que pueden realizar esas cuentas en segundos. Con la potencia computacional actual, los métodos de cifrado clásico proveen poca protección real para la privacidad de los mensajes.

Bibliografía[editar]

  • Helen Fouché Gaines, Cryptanalysis, 1939, Dover. ISBN 0-486-20097-3
  • Ibraham A. «Al-Kindi: The origins of cryptology: The Arab contributions», Cryptologia, 16(2) (April 1992) pp. 97–126.
  • Abraham Sinkov, Elementary Cryptanalysis : A Mathematical Approach, The Mathematical Association of America, 1966. ISBN 0-88385-622-0.