Historia de las ciencias de la computación

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

La historia de la ciencia de la computación[1] comenzó mucho antes de la moderna disciplina de ciencias de la computación que surgió en el siglo 20, y se insinúa en los siglos anteriores. La progresión de las invenciones mecánicas, su desarrollo fue grande que la ciencia de la computación se separó de las matemáticas formó un gran campo académico y la base de una masiva industria mundial.[2]

Primeros Pasos[editar]

La primera herramienta conocida para su uso en el cálculo fue el ábaco, desarrollado en el período 2700-2300 AC en Sumeria. El ábaco de Sumeria consistía en una tabla de columnas sucesivas que delimitan las órdenes sucesivas de magnitud de su sistema de numeración sexagesimal.[3] Su estilo original de uso era por las líneas trazadas en la arena con guijarros. Ábacos de un diseño más moderno todavía se utilizan como herramientas de cálculo en la actualidad.

El Mecanismo de Anticitera se cree que es la primera computadora analógica mecánica conocida.[4] Fue diseñado para calcular las posiciones astronómicas. Fue descubierto en 1901 en el naufragio de Antikythera fuera de la isla griega de Antikythera, entre Citera y Creta, y se ha fechado 100 años antes de Cristo. Artefactos tecnológicos de complejidad similar no reaparecieron hasta el siglo 14, cuando los relojes astronómicos mecánicos aparecieron en Europa.[5]

Los dispositivos mecánicos de computación analógica aparecieron unos mil años después en el mundo islámico medieval. Ejemplos de dispositivos de este período incluyen el Equatorium por Arzachel,[6] el Astrolabio mecánico de engranajes de Abu Rayhan al-Biruni,[7] y el Torquetumpor Jabir ibn Aflah.[8] Los ingenieros musulmanes construyeron una serie de autómatas, incluyendo algunos autómatas musicales que podían ser "programados" para reproducir diferentes patrones musicales. Estos dispositivos fueron desarrollados por los hermanos[9] Banu Musa[10] Al-Jazari. Matemáticos musulmanes también hicieron importantes avances en la criptografía, como el desarrollo del criptoanálisis y análisis de frecuencia por Alkindus.[11]

Cuando John Napier descubre los logaritmos para fines de cálculo en el siglo 1841 suscitó un período de progreso considerable por los inventores y los científicos en la fabricación de herramientas de cálculo. En 1623 Wilhelm Schickard diseñó una máquina de calcular, pero abandonó el proyecto, cuando el prototipo que había empezado a construir fue destruido por un incendio en 1624. Hacia 1640, Blaise Pascal, un matemático francés de renombre, construyó el primer dispositivo mecánico para sumar[12] sobre la base de un diseño descrito por Herón de Alejandría, matemático griego.[13] Entonces en 1672 Gottfried Wilhelm Leibniz inventó la máquina de Leibniz que completó en 1694.[14]

En 1837 Charles Babbage describió por primera vez su Máquina Analítica que se acepta como el primer diseño de una computadora moderna. La máquina analítica tenía memoria expandible, una unidad aritmética y lógica de las capacidades de procesamiento capaces de interpretar un lenguaje de programación con bucles y bifurcaciones condicionales. Aunque nunca se construyó, el diseño se ha estudiado ampliamente y se entiende que es Turing completa. El motor analítico habría tenido una capacidad de memoria de menos de 1 kilobyte y una velocidad de reloj de menos de 10 Hertz.

Un avance considerable en las matemáticas y la teoría electrónica fue requerido antes de que las primeras computadoras modernas pudieran ser diseñadas.

Lógica Binaria[editar]

En 1703, Gottfried Wilhelm Leibniz desarrolló la lógica en un sentido matemático formal, con sus escritos sobre el sistema de numeración binario. En su sistema, los unos y los ceros también representan los valores verdaderos y falsos o los estados apagado y encendido. Pero tuvo que pasar más de un siglo antes de que George Boole publicara su álgebra de Boole en 1854 con un sistema completo que permitió que los procesos computacionales pudieran ser matemáticamente modelables.

Por esos tiempos, los primeros dispositivos mecánicos que funcionaban con un patrón binario se habían inventado. La revolución industrial había impulsado la mecanización de muchas tareas, y esto incluía el tejido. El telar controlado por tarjetas perforadas de Joseph Marie Jacquard en 1801, donde un agujero perforado en la tarjeta indica un uno binario y un lugar sin perforar indica un cero binario. El telar de Jacquard estaba lejos de ser un ordenador, pero sí ponía de manifiesto que las máquinas podían ser controladas por los sistemas binarios.

El nacimiento de las Ciencias de la Computación[editar]

Antes de la década de 1920, las computadoras (a veces computadores) fueron empleados humanos que realizaban los cálculos. Estaban por lo general bajo la dirección de un físico. Miles de computadores trabajaban en el comercio, el gobierno y los centros de investigación. La mayoría de estos computadores eran mujeres, y eran conocidos por tener un grado en cálculo. Algunos realizando cálculos de astronomía para los calendarios.

Después de la década de 1920, la expresión máquina de computación hacía referencia a cualquier máquina que realizara el trabajo de un computador humano, especialmente los realizados en conformidad con los métodos eficaces de la tesis de Church-Turing. La tesis establecía que un método matemático es eficaz si se podrían enunciar como una lista de instrucciones que puedan ser seguidos por un empleado humano con lápiz y papel, durante el tiempo que sea necesario, y sin ingenio ni idea.

Las máquinas que calculaban con valores continuos se conocían como de tipo analógico. Estas utilizaban una maquinaria que representaba cantidades numéricas continuas, como el ángulo de rotación de un eje o diferencia de potencial eléctrico.

Las máquinas digitales, en contraste a las analógicas, fueron capaces de representar un estado de un valor numérico y almacenar cada dígito individual. Las máquinas digitales utilizaban motores de diferencia o relés antes de la invención de dispositivos de memoria más rápidos.

La frase máquina de computación gradualmente desapareció, después de la década de 1940, a sólo ordenador o computadora. Estos equipos fueron capaces de realizar los cálculos que se realizaron por los empleados humanos anteriores.

Dado que los valores almacenados en las máquinas digitales no estaban relacionados a propiedades físicas como los dispositivos analógicos, un ordenador lógico, basado en equipos digitales, era capaz de hacer cualquier cosa que podría ser descrito "puramente mecánico." La teórica Máquina de Turing, creada por Alan Turing, es un dispositivo hipotético teorizado con el fin de estudiar las propiedades de este hardware.

Surgimiento de una disciplina[editar]

Los fundamentos matemáticos de la actual ciencia de la computación fueron propuestos por Kurt Gödel con su teorema de incompletitud (1931). En este teorema, demostró que había límites a lo que puede ser probado y refutado dentro de un sistema formal. Esto condujo a que Gödel y otros trabajaran para definir y describir estos sistemas formales, incluyendo conceptos como funciones recursivas y el cálculo lambda.

1936 fue un año clave para las ciencias de la computación. Alan Turing y Alonzo Church independientemente, y también juntos, presentaron la formalización de un algoritmo, con límites en lo que puede ser calculado, y un modelo "puramente mecánico" para la computación. Estos temas son cubiertos por lo que ahora se llama la tesis de Church-Turing, una hipótesis sobre la naturaleza de dispositivos de cálculo mecánicos, como los equipos electrónicos. La tesis afirma que cualquier cálculo que sea posible se puede realizar por un algoritmo que se ejecuta en una computadora, a condición de que el tiempo y el espacio de almacenamiento se encuentran disponibles.

Turing también se presenta con la tesis de una descripción de la máquina de Turing. Una máquina de Turing tiene una cinta de longitud infinita y un cabezal de lectura/escritura, que puede moverse a lo largo de la cinta, cambiando los valores a lo largo del camino. Es evidente que tal máquina nunca podría ser construida, pero sin embargo, el modelo puede simular el cómputo de un algoritmo que puede ser ejecutado en un equipo moderno.

Turing es tan importante para la informática que su nombre también aparece en el Premio Turing y la prueba de Turing. Él contribuyó en gran medida a que los británicos pudieran exitósamente romper códigos secretos en la Segunda Guerra Mundial, y continuó en el diseño de computadoras y software a través de la década de 1940, pero se suicidó en 1954.

En un simposio en gran escala de máquinas digitales en Cambridge, Turing dijo: "Estamos tratando de construir una máquina para hacer todo tipo de cosas diferentes, simplemente mediante la programación en lugar de mediante la adición de un aparato extra".

En 1941, Konrad Zuse desarrolló el primer programa funcional controlado por un equipo Turing-completo, el Z3. Zuse, se destacó también por la máquina de calcular S2, considerado el primer proceso controlado por ordenador. Él fundó una de las primeras empresas informáticas en el año 1941, con la producción del Z4, que se convirtió en la primera computadora comercial. En 1946, diseñó el primer encuentro de alto nivel de lenguaje de programación, Plankalkül.[15] En 1969, Zuse sugirió el concepto de un universo basado en el cálculo en su libro Rechnender Raum.

En 1948, el primer ordenador práctico que podría ejecutar programas almacenados, basado en el modelo de la máquina de Turing, había sido construido - el Bebe Manchester (Manchester Baby).

En 1950, el Laboratorio Nacional de Física de Gran Bretaña completó Pilot ACE, un ordenador de pequeña escala programable, basada en la filosofía de Turing.

Shannon y la teoría de la información[editar]

Antes y durante la década de 1930, los ingenieros eléctricos fueron capaces de construir circuitos electrónicos para resolver problemas matemáticos y de la lógica, pero la mayoría lo hizo de una manera ad hoc, carente de rigor teórico. Esto cambió con la publicación de Claude Elwood Shannon, de sus tesis de maestría en 1937, Un Análisis Simbólico de relé y circuitos de conmutación. Al tiempo que toma una clase de filosofía de pregrado, Shannon había estado expuesto a la obra de Boole, y reconoció que podría ser utilizada para organizar los relés electromecánicos (luego se utilizan en teléfonos conmutadores de enrutamiento) para resolver problemas de lógica. Este concepto, de la utilización de las propiedades de los interruptores eléctricos para hacer la lógica, es el concepto básico que subyace en todos los equipos electrónicos digitales, y su tesis se convirtió en la base de diseño práctico de circuitos digitales cuando se hizo ampliamente conocido entre la comunidad de ingeniería eléctrica durante y después de la Segunda Segunda Guerra Mundial.

Shannon pasó a fundar el campo de la teoría de la información con su artículo titulado Una teoría matemática de la comunicación publicado en 1948, que aplicó la teoría de la probabilidad para el problema de cómo codificar mejor la información que el emisor quiere transmitir. Este trabajo es uno de los fundamentos teóricos para muchas áreas de estudio, incluyendo la compresión de datos y criptografía.

Wiener y Cibernética[editar]

A partir de experimentos con sistemas antiaéreos que interpretaban las imágenes de radar para detectar aviones enemigos, Norbert Wiener acuñó el término cibernética de la palabra griega que significa "timonel". Publicó "Cibernética" en 1948, que influyó en la inteligencia artificial. Wiener también comparó cómputo, máquina de cómputo, dispositivos de memoria, y otras similitudes cognitivas con su análisis de las ondas cerebrales.

El primer fallo (bug) real de una computadora fue una polilla. La cual fue atrapada en medio de los relés en el Harvard Mark II.

Referencias[editar]

  1. Wikipedia. «History of computer science» (en inglés). Consultado el 18 de diciembre de 2012.
  2. History of Computer Science
  3. Ifrah (2001, p. 11)
  4. The Antikythera Mechanism Research Project, The Antikythera Mechanism Research Project. Retrieved 2007-07-01
  5. In search of lost time, Jo Marchant, Nature 444, #7119 (November 30, 2006), pp. 534–538, doi 10.1038/444534a PMID 17136067.
  6. Hassan, Ahmad Y.. «Transfer Of Islamic Technology To The West, Part II: Transmission Of Islamic Engineering». Consultado el 22 de enero de 2008.
  7. «Islam, Knowledge, and Science». University of Southern California. Consultado el 22 de enero de 2008.
  8. Lorch, R. P. (1976). «The Astronomical Instruments of Jabir ibn Aflah and the Torquetum». Centaurus 20 (1):  pp. 11–34. doi:10.1111/j.1600-0498.1976.tb00214.x. Bibcode1976Cent...20...11L. 
  9. Koetsier, Teun (2001). «On the prehistory of programmable machines: musical automata, looms, calculators». Mechanism and Machine Theory (Elsevier) 36 (5):  pp. 589–603. doi:10.1016/S0094-114X(01)00005-2. 
  10. A 13th Century Programmable Robot, University of Sheffield
  11. Simon Singh, The Code Book, pp. 14-20
  12. Short history of the computer
  13. History of Computing Science: The First Mechanical Calculator
  14. Kidwell, Peggy Aldritch; Williams, Michael R. (1992). The Calculating Machines: Their history and development. USA: Massachusetts Institute of Technology and Tomash Publishers.  , p.38-42, translated and edited from Martin, Ernst (1925). Die Rechenmaschinen und ihre Entwicklungsgeschichte. Germany: Pappenheim. 
  15. Talk given by Horst Zuse to the Computer Conservation Society at the Science Museum (London) on 18 November 2010