Cronología de la inteligencia artificial

De Wikipedia, la enciclopedia libre


Esta es una cronología de la inteligencia artificial, a veces también llamada inteligencia sintética.

Antes del siglo XX[editar]

Fecha Desarrollo
Antigüedad Los mitos griegos de Hefesto y Pigmalión incorporaban la idea de autómatas inteligentes (como Talos) y seres artificiales (como Galatea y Pandora).[1]
Estatuas mecánicas sagradas construidas en Egipto y Grecia se creía que eran capaces de sabiduría y emoción. Hermes Trismegisto escribiría "tienen sensus y spiritus ... al descubrir la verdadera naturaleza de los dioses, el hombre ha sido capaz de reproducirla".
siglo X a. C. Yan Shi presentó al Rey Mu de Zhou hombres mecánicos capaces de mover sus cuerpos de forma independiente.[2]
384 a. C. - 322 a. C. Aristóteles describió el silogismo, un método de pensamiento formal y mecánico, y una teoría del conocimiento en el Organon.[3][4]
siglo III a. C. Ctesibio inventa un reloj de agua mecánico con una alarma. Este fue el primer ejemplo de un mecanismo de retroalimentación.[cita requerida]
siglo I Hero de Alejandría creó hombres mecánicos y otros autómatas.[5]​ Produjo lo que pudo haber sido "la primera máquina programable práctica del mundo":[6]​ un teatro automático.
260 Porfirio escribió Isagogê, que categorizaba el conocimiento y la lógica.[7]
~800 Ŷabir ibn Hayyan desarrolló la teoría alquímica árabe de Takwin, la creación artificial de vida en el laboratorio, incluyendo la vida humanoa.[8]
siglo IX Los hermanos Banū Mūsā crearon un autómata musical programable descrito en su Libro de Ingeniosos Dispositivos: una flauta impulsada por vapor controlada por un programa representado por clavijas en un cilindro giratorio.[9]​ Esta fue "quizás la primera máquina con un programa almacenado."[6]
1206 Al Jazarí creó una orquesta programable de seres humanos mecánicos.[10]
1275 Ramon Llull, teólogo mallorquín, inventa el Ars Magna, una herramienta para combinar conceptos mecánicamente basada en una herramienta astrologica árabe, la Zairja. Llull describió sus máquinas como entidades mecánicas que podían combinar verdades básicas y hechos para producir conocimiento avanzado. El método sería desarrollado aún más por Gottfried Leibniz en el siglo XVII.[11]
~1500 Paracelsus afirmó haber creado un hombre artificial a partir de magnetismo, esperma y alquimia.[12]
~1580 El rabino Judah Loew ben Bezalel de Praga se dice que inventó el Golem, un hombre de arcilla que cobraba vida.[13]
Principios del siglo XVII René Descartes propuso que los cuerpos de los animales no son más que máquinas complejas (pero que los fenómenos mentales son de una "sustancia" diferente).[14]
1620 Francis Bacon desarrolló una teoría empírica del conocimiento e introdujo la lógica inductiva en su obra Novum Organum, una referencia al título de Aristóteles Organon.[15][16]
1623 Wilhelm Schickard dibujó un reloj calculador en una carta a Kepler. Este será el primero de cinco intentos fallidos de diseñar un reloj calculador de "entrada directa" en el siglo XVII (incluyendo los diseños de Tito Burattini, Samuel Morland y René Grillet).[17]
1641 Thomas Hobbes publicó Leviatán y presentó una teoría mecánica y combinatoria de la cognición. Escribió "...porque la razón no es más que un cálculo".[18][19]
1642 Blaise Pascal inventó la calculadora mecánica,[20]​ la primera máquina calculadora digital.[21]
1672 Gottfried Wilhelm Leibniz mejoró las máquinas anteriores, creando el Stepped Reckoner para realizar multiplicación y división. También inventó el sistema de numeración binario e imaginó un cálculo universal de razonamiento mediante el cual los argumentos podrían decidirse mecánicamente. Leibniz trabajó en asignar un número específico a cada objeto en el mundo, como preludio a una solución algebraica para todos los problemas posibles.[22]
1676 Gottfried Wilhelm Leibniz derivó la regla de la cadena. Esta regla se ha vuelto fundamental para la asignación de crédito en las redes neuronales artificiales: el algoritmo de retropropagación utilizado en el aprendizaje profundo es una aplicación eficiente de la regla de la cadena en redes de nodos diferenciables.
1726 Jonathan Swift publicó Los viajes de Gulliver, que incluye una descripción de la Máquina, un aparato en la isla de Laputa que parodia Ars Magna, una de las inspiraciones del mecanismo de Gottfried Wilhelm Leibniz.[23]
1750 Julien Offray de La Mettrie publicó L'Homme Machine, argumentando que el pensamiento humano es estrictamente mecánico.[24]
1763 El trabajo de Thomas Bayes Un ensayo hacia la solución de un problema en la doctrina de las posibilidades sentó las bases del teorema de Bayes.[cita requerida]
1769 Wolfgang von Kempelen construyó y presentó su autómata de ajedrez llamado El Turco, que afirmaba que podía vencer a jugadores humanos. Sin embargo, más tarde se descubrió que era un engaño y que involucraba a un jugador humano.[25]
1795-1805 El tipo más simple de red neuronal artificial es la red lineal, conocida como el método de mínimos cuadrados o regresión lineal. Fue utilizado por Adrien-Marie Legendre (1805) y Carl Friedrich Gauss (1795) para predecir el movimiento de planetas.[6]
1800 Joseph Marie Jacquard creó un telar programable utilizando tarjetas perforadas para controlar secuencias de operaciones en la manufactura textil, lo que puede considerarse como el primer software industrial para empresas comerciales.[6]
1805 Adrien-Marie Legendre describió el "méthode des moindres carrés" (método de los mínimos cuadrados) para el ajuste de datos.[26]
1818 Mary Shelley publicó la historia de Frankenstein, una consideración ficticia sobre la ética de crear seres conscientes.[27]
1822–1859 Charles Babbage y Ada Lovelace trabajaron en máquinas calculadoras mecánicas programables.[28]
1837 El matemático Bernard Bolzano hizo el primer intento moderno de formalizar la semántica.[29]
1854 George Boole desarrolló el álgebra booleana, un lenguaje simbólico para investigar las leyes fundamentales del razonamiento.[30]
1863 Samuel Butler sugirió que la evolución darwiniana también se aplica a las máquinas y especuló sobre la posibilidad de máquinas conscientes que podrían superar a la humanidad.[31]

siglo XX[editar]

1901–1950[editar]

Fecha Desarrollo
1910-1913 Bertrand Russell y Alfred North Whitehead publicaron Principia Mathematica, que revolucionó la lógica formal.
1912-1914 Leonardo Torres Quevedo construyó un autómata para finales de ajedrez, El Ajedrecista. Fue considerado "el primer pionero de la IA del siglo XX".[6]​ En sus Ensayos sobre Autómatas (1913), Torres especuló sobre el pensamiento y los autómatas, e introdujo la idea de la aritmética de punto flotante.[32][33]
1923 La obra de teatro R.U.R. (Robots Universales de Rossum) de Karel Čapek se estrenó en Londres. Esta es la primera vez que se utiliza la palabra "robot" en inglés.[34]
1920-1925 Wilhelm Lenz y Ernst Ising crearon y analizaron el modelo de Ising (1925)[35]​, que se puede ver como la primera red neuronal recurrente artificial (RNN) que consiste en elementos umbral similares a neuronas.[6]​ En 1972, Shun'ichi Amari hizo que esta arquitectura fuera adaptable.[36][6]
Décadas de 1920 y 1930 El Tractatus Logico-Philosophicus (1921) de Ludwig Wittgenstein inspira a Rudolf Carnap y a los positivistas lógicos del Círculo de Viena a utilizar la lógica formal como base de la filosofía. Sin embargo, los trabajos posteriores de Wittgenstein en la década de 1940 demuestran que la lógica simbólica sin contexto libre es incoherente sin interpretación humana.
1931 Kurt Gödel codificó en números enteros declaraciones matemáticas y pruebas, y demostró que hay teoremas verdaderos que no se pueden demostrar mediante ninguna máquina de prueba de teoremas consistente. Así, "identificó los límites fundamentales de la demostración de teoremas algorítmicos, la computación y cualquier tipo de IA basada en la computación",[6]​ sentando las bases de la ciencia de la computación teórica y la teoría de la IA.
1935 Alonzo Church extendió la prueba de Gödel y demostró que el problema de decisión de la ciencia de la computación no tiene una solución general.[37]​ Desarrolló el Cálculo Lambda, que eventualmente sería fundamental para la teoría de los lenguajes de programación.
1936 Konrad Zuse presentó su solicitud de patente para una computadora controlada por programas.[38]
1937 Alan Turing publicó "Números Computables", que sentó las bases de la moderna teoría de la computación al introducir la máquina de Turing, una interpretación física de la "computabilidad". La utilizó para confirmar a Gödel demostrando que el problema de detención es indecidible.
1940 Edward Condon presentó el Nimatron, una máquina digital que jugaba al Nim perfectamente.
1941 Konrad Zuse construyó la primera computadora programable de propósito general que funcionaba.[39]
1943 Warren Sturgis McCulloch y Walter Pitts publicaron "A Logical Calculus of the Ideas Immanent in Nervous Activity" (1943), la primera descripción matemática de las red neuronal artificials.[40]
Arturo Rosenblueth, Norbert Wiener y Julian Bigelow acuñaron el término "cibernética". El libro popular de Wiener con ese nombre se publicó en 1948.
1945 Se introdujo la teoría de juegos, que resultaría invaluable en el avance de la IA, con el artículo de 1944 "Theory of Games and Economic Behavior" escrito por el matemático John von Neumann y el economista Oskar Morgenstern.
Vannevar Bush publicó "As We May Think" (The Atlantic Monthly, julio de 1945), una visión presciente del futuro en el que las computadoras ayudan a los seres humanos en muchas actividades.
1948 John von Neumann (citado por E.T. Jaynes) en respuesta a un comentario durante una conferencia de que era imposible que una máquina (al menos las creadas por humanos) pensara: "Insistes en que hay algo que una máquina no puede hacer. Si me dices exactamente qué es lo que una máquina no puede hacer, ¡entonces siempre puedo construir una máquina que haga precisamente eso!". Von Neumann probablemente aludía a la tesis de Church-Turing que establece que cualquier procedimiento efectivo puede ser simulado por una computadora (generalizada).

1950s[editar]

Fecha Desarrollo
1950 Alan Turing propone la Prueba de Turing como una medida de la inteligencia de las máquinas.[41]
Claude Shannon publica un análisis detallado del juego de ajedrez como búsqueda.
Isaac Asimov publica sus Tres Leyes de la Robótica.
1951 Se escriben los primeros programas de IA funcionales en 1951 para ejecutarse en la máquina Ferranti Mark 1 de la Universidad de Manchester: un programa para jugar a las damas escrito por Christopher Strachey y un programa para jugar al ajedrez escrito por Dietrich Prinz.
1952-1962 Arthur Samuel (IBM) escribe el primer programa para jugar juegos,[42]​ para las damas, que alcanza suficiente habilidad para desafiar a un amateur respetable. Su primer programa para jugar a las damas fue escrito en 1952, y en 1955 creó una versión que aprendía a jugar.[43]
1956 Se organiza la Conferencia de verano sobre IA de Dartmouth en el Dartmouth College por John McCarthy, Marvin Minsky, Nathan Rochester de IBM y Claude Shannon. McCarthy acuña el término "inteligencia artificial" para la conferencia.[44]
Se realiza la primera demostración del Logic Theorist (LT) escrito por Allen Newell, J.C. Shaw y Herbert A. Simon (Carnegie Institute of Technology, ahora Carnegie Mellon University o CMU). A menudo se le llama el primer programa de IA, aunque el programa de damas de Samuel también tiene una fuerte reclamación. Se ha descrito este programa como el primero diseñado deliberadamente para realizar razonamiento automatizado, y eventualmente demostraría 38 de los primeros 52 teoremas en el Principia Mathematica de Russell y Whitehead, y encontraría demostraciones nuevas y más elegantes para algunos.[45]

Simon dijo que habían "resuelto el venerable problema mente/cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente."[46]​ (Esta fue una declaración temprana de la posición filosófica que más tarde John Searle llamaría "IA fuerte": que las máquinas pueden contener mentes al igual que los cuerpos humanos).

1958 John McCarthy (del Massachusetts Institute of Technology o MIT) inventó el lenguaje de programación Lisp.
Herbert Gelernter y Nathan Rochester (IBM) describieron un demostrador de teoremas en geometría que explota un modelo semántico del dominio en forma de diagramas de casos "típicos".
Se llevó a cabo la Teddington Conference sobre la Mecanización de los Procesos del Pensamiento en el Reino Unido, y entre los artículos presentados se encontraban "Programs with Common Sense" de John McCarthy, "Pandemonium" de Oliver Selfridge y "Some Methods of Heuristic Programming and Artificial Intelligence" de Marvin Minsky.
1959 El General Problem Solver (GPS) fue creado por Newell, Shaw y Simon mientras estaban en CMU.
John McCarthy y Marvin Minsky fundaron el Laboratorio de Inteligencia Artificial del MIT.
Finales de la década de 1950, principios de la década de 1960 Margaret Masterman y sus colegas en la Universidad de Cambridge diseñaron redes semánticas para la traducción automática.

1960s[editar]

Fecha Desarrollo
Década de 1960 Ray Solomonoff sentó las bases de una teoría matemática de la IA, introduciendo métodos universales de inferencia y predicción inductiva.
1960 "Man-Computer Symbiosis" por J.C.R. Licklider.
1961 James Slagle (tesis doctoral en el MIT) escribió (en Lisp) el primer programa simbólico de integración, SAINT, que resolvía problemas de cálculo a nivel de primer año universitario.
En Minds, Machines and Gödel, John Lucas[47]​ niega la posibilidad de una inteligencia artificial basándose en argumentos lógicos y filosóficos. Se refiere al resultado de Kurt Gödel de 1931: los sistemas formales suficientemente poderosos son o inconsistentes o permiten formular teoremas verdaderos no demostrables por ninguna IA demostradora de teoremas, derivando todos los teoremas demostrables a partir de los axiomas. Dado que los humanos son capaces de "ver" la verdad de dichos teoremas, las máquinas se consideraban inferiores.
El robot industrial Unimate de Unimation trabajó en una línea de ensamblaje de automóviles de General Motors.
1963 El programa de Thomas Evans, ANALOGY, escrito como parte de su trabajo de doctorado en el MIT, demostró que las computadoras pueden resolver los mismos problemas de analogía que se presentan en los exámenes de CI.
Edward Feigenbaum y Julian Feldman publicaron Computers and Thought, la primera colección de artículos sobre inteligencia artificial.[48][49][50][51]
Leonard Uhr y Charles Vossler publicaron "A Pattern Recognition Program That Generates, Evaluates, and Adjusts Its Own Operators", que describía uno de los primeros programas de aprendizaje automático que podía adquirir y modificar de manera adaptativa características y, de esta manera, superar las limitaciones de los perceptrones simples de Rosenblatt.
1964 La tesis de Danny Bobrow en el MIT (informe técnico n.° 1 del grupo de IA del MIT, Project MAC), muestra que las computadoras pueden entender el lenguaje natural lo suficientemente bien como para resolver correctamente problemas de álgebra en forma de problemas de palabras.
La tesis de MIT de Bertram Raphael sobre el programa SIR demuestra el poder de una representación lógica del conocimiento para los sistemas de respuesta a preguntas.
1965 Alexey Grigorevich Ivakhnenko y Valentin Lapa desarrollaron el primer algoritmo de deep learning para perceptrons de multicapa en Ucrania.[52][53][6]
Lotfi Zadeh en la U.C. Berkeley publica su primer artículo introduciendo la lógica difusa, "Fuzzy Sets" (Information and Control 8: 338–353).
J. Alan Robinson inventó un procedimiento mecánico de demostración matemática, el Método de Resolución, que permitía a los programas trabajar eficientemente con la lógica formal como lenguaje de representación.
Joseph Weizenbaum (MIT) construyó ELIZA, un programa interactivo que lleva a cabo un diálogo en idioma inglés sobre cualquier tema. Fue un juguete popular en los centros de IA en la ARPANET cuando se programó una versión que "simulaba" el diálogo de un psicoterapeuta.
Edward Feigenbaum inició Dendral, un esfuerzo de diez años para desarrollar software que dedujera la estructura molecular de compuestos orgánicos utilizando datos de instrumentos científicos. Fue el primer sistema experto.
1966 Ross Quillian (tesis doctoral, Carnegie Inst. of Technology, ahora CMU) demostró las redes semánticas.
Taller de Machine Intelligence[54]​ en Edimburgo, el primero de una influyente serie anual organizada por Donald Michie y otros.
Un informe negativo sobre la traducción automática acaba con gran parte del trabajo en procesamiento del lenguaje natural (NLP) durante muchos años.
El programa Dendral (Edward Feigenbaum, Joshua Lederberg, Bruce Buchanan, Georgia Sutherland en la Universidad Stanford) demostró la interpretación de espectros de masas de compuestos químicos orgánicos. Primer programa exitoso basado en conocimiento para el razonamiento científico.
1967 Shun'ichi Amari fue el primero en utilizar el descenso de gradiente estocástico para el aprendizaje profundo en perceptrones de capas múltiples.[55]​ En experimentos informáticos realizados por su estudiante Saito, un MLP de cinco capas con dos capas modificables aprendió representaciones internas útiles para clasificar clases de patrones no linealmente separables.[6]
1968 Joel Moses (trabajo de doctorado en el MIT) demostró el poder del razonamiento simbólico para problemas de integración en el programa Macsyma. Primer programa basado en conocimiento exitoso en matemáticas.
Richard Greenblatt (programador) en el MIT construyó un programa de ajedrez basado en conocimiento, MacHack, que era lo suficientemente bueno como para alcanzar una clasificación de clase C en competiciones.
El programa de Wallace y Boulton, Snob (Comp.J. 11(2) 1968), para la clasificación no supervisada (agrupamiento) utiliza el criterio de la mínima longitud de mensaje bayesiana, una realización matemática de la navaja de Occam.
1969 Stanford Research Institute (SRI): Shakey the Robot, demostró la combinación de locomoción animal, percepción y resolución de problemas.
Roger Schank (Stanford) definió el modelo de dependencia conceptual para la comprensión del lenguaje natural. Posteriormente se desarrolló (en tesis doctorales en la Universidad de Yale) para su uso en la comprensión de historias por Robert Wilensky y Wendy Lehnert, y para su uso en la comprensión de la memoria por Janet Kolodner.
Yorick Wilks (Stanford) desarrolló la visión de coherencia semántica del lenguaje llamada Semántica de Preferencia, plasmada en el primer programa de traducción automática basado en semántica y la base de muchas tesis doctorales posteriores, como las de Bran Boguraev y David Carter en Cambridge.
Primera Conferencia Internacional Conjunta de Inteligencia Artificial (IJCAI) celebrada en Stanford.
Marvin Minsky y Seymour Papert publicaron Perceptrons, demostrando límites previamente no reconocidos de esta estructura de dos capas alimentada hacia adelante. Este libro es considerado por algunos como el comienzo del "invierno de la IA" de los años 70, una falta de confianza y financiación para la IA. Sin embargo, para cuando el libro salió, ya se conocían métodos de entrenamiento de perceptrones de capas múltiples mediante aprendizaje profundo (Alexey Grigorevich Ivakhnenko y Valentin Lapa, 1965; Shun'ichi Amari, 1967).[6]​ Se continuó haciendo un progreso significativo en el campo (ver abajo).
McCarthy y Hayes comenzaron la discusión sobre el problema del marco con su ensayo "Algunos problemas filosóficos desde el punto de vista de la inteligencia artificial".

1970s[editar]

Fecha Desarrollo
Principios de la década de 1970 Jane Robinson y Don Walker establecieron un influyente grupo de Procesamiento del Lenguaje Natural en SRI.
1970 Seppo Linnainmaa publica el modo inverso de la diferenciación automática. Este método se conoce posteriormente como retropropagación, y se utiliza ampliamente para entrenar redes neuronales artificiales.
Jaime Carbonell (Sr.) desarrolló SCHOLAR, un programa interactivo de instrucción asistida por computadora basado en redes semánticas como representación del conocimiento.
Bill Woods describió las Redes de Transición Aumentadas (ATN) como una representación para la comprensión del lenguaje natural.
El programa de doctorado de Patrick Winston, ARCH, en el MIT aprendió conceptos a partir de ejemplos en el mundo de los bloques infantiles.
1971 La tesis doctoral de Terry Winograd (MIT) demostró la capacidad de las computadoras para entender oraciones en inglés en un mundo restringido de bloques infantiles, mediante la combinación de su programa de comprensión del lenguaje, SHRDLU, con un brazo robótico que ejecutaba instrucciones escritas en inglés.
Se inició el trabajo en el demostrador de teoremas Boyer-Moore en Edimburgo.[56]
1972 Se desarrolla el lenguaje de programación Prolog por Alain Colmerauer.
Earl Sacerdoti desarrolló uno de los primeros programas de planificación jerárquica, ABSTRIPS.
1973 El Grupo de Robótica de Ensamblaje en la Universidad de Edimburgo construye el Robot Freddy, capaz de utilizar la percepción visual para localizar y ensamblar modelos. (Ver Edinburgh Freddy Assembly Robot: un sistema de ensamblaje controlado por computadora versátil).
El informe Lighthill emite un veredicto en su mayoría negativo sobre la investigación de IA en Gran Bretaña y sirve de base para la decisión del gobierno británico de discontinuar el apoyo a la investigación de IA en todas menos dos universidades.
1974 La tesis doctoral de Ted Shortliffe sobre el programa MYCIN (Stanford) demostró un enfoque práctico basado en reglas para el diagnóstico médico, incluso en presencia de incertidumbre. Si bien tomó prestado de DENDRAL, sus propias contribuciones influyeron de manera significativa en el futuro desarrollo de los sistemas expertos, especialmente en los sistemas comerciales.
1975 Earl Sacerdoti desarrolló técnicas de planificación de orden parcial en su sistema NOAH, reemplazando el paradigma anterior de búsqueda entre descripciones del espacio de estados. NOAH se aplicó en SRI International para diagnosticar y reparar sistemas electromecánicos de manera interactiva.
Austin Tate desarrolló el sistema de planificación jerárquica Nonlin capaz de buscar un espacio de planes parciales caracterizados como enfoques alternativos a la estructura de objetivo subyacente del plan.
Marvin Minsky publicó su artículo ampliamente leído e influyente sobre los marcos como una representación del conocimiento, en el cual se unen muchas ideas sobre esquemas y vínculo semántico.
El programa de aprendizaje Meta-Dendral produjo nuevos resultados en química (algunas reglas de espectrometría de masas), siendo los primeros descubrimientos científicos realizados por una computadora publicados en una revista arbitrada.
Mediados de la década de 1970 Barbara Grosz (SRI) estableció límites para los enfoques tradicionales de IA en la modelización del discurso. Trabajos posteriores de Grosz, Bonnie Webber y Candace Sidner desarrollaron la noción de "centrado", utilizado para establecer el enfoque del discurso y las referencias anafóricas en el procesamiento del lenguaje natural.
David Marr y sus colegas del MIT describieron el "bosquejo primal" y su papel en la percepción visual.
1976 El programa AM de Douglas Lenat (tesis doctoral en Stanford) demostró el modelo de descubrimiento (búsqueda guiada de manera flexible para encontrar conjeturas interesantes).
Randall Davis demostró el poder del razonamiento a nivel meta en su tesis doctoral en Stanford.
1978 Tom Mitchell, en Stanford, inventa el concepto de espacio de versiones para describir el espacio de búsqueda de un programa de formación de conceptos.
Herbert A. Simon gana el Premio Nobel de Economía por su teoría de la racionalidad limitada, uno de los fundamentos de la IA conocido como "satisficing".
El programa MOLGEN, escrito en Stanford por Mark Stefik y Peter Friedland, demostró que una representación de conocimiento basada en la programación orientada a objetos puede usarse para planificar experimentos de clonación de genes.
1979 La tesis doctoral de Bill VanMelle en Stanford demostró la generalidad de la representación del conocimiento y el estilo de razonamiento de MYCIN en su programa EMYCIN, el modelo de muchos "shells" de sistemas expertos comerciales.
Jack Myers y Harry Pople en la University of Pittsburgh desarrollaron INTERNIST, un programa de diagnóstico médico basado en conocimiento clínico del Dr. Myers.
Cordell Green, David Barstow, Elaine Kant y otros en Stanford demostraron el sistema CHI para la programación automática.
El Stanford Cart, construido por Hans Moravec, se convierte en el primer vehículo autónomo controlado por computadora cuando atraviesa con éxito una habitación llena de sillas y circunvala el Stanford AI Lab.
BKG, un programa de backgammon escrito por Hans Berliner en la CMU, derrota al campeón mundial reinante (en parte gracias a la suerte).
Drew McDermott y Jon Doyle en MIT, y John McCarthy en Stanford comienzan a publicar trabajos sobre lógicas no monotónicas y aspectos formales del mantenimiento de la verdad.
Finales de la década de 1970 El recurso SUMEX-AIM de Stanford, dirigido por Ed Feigenbaum y Joshua Lederberg, demuestra el poder de ARPAnet para la colaboración científica.

1980s[editar]

Date Development
1980s Desarrollo y comercialización de las computadoras Lisp. Primeros sistemas expertos y aplicaciones comerciales.
1980 Primera Conferencia Nacional de la Asociación Estadounidense de Inteligencia Artificial (AAAI) celebrada en Stanford.
1981 Danny Hillis diseña la Connection Machine, que utiliza la computación en paralelo para aportar nueva potencia a la IA y a la computación en general. (Posteriormente funda Thinking Machines Corporation)
1982 Comienza el proyecto de los Sistemas Informáticos de Quinta Generación (FGCS), una iniciativa del Ministerio de Comercio Internacional e Industria de Japón, para crear una "computadora de quinta generación" (ver historia del hardware informático) que debía realizar cálculos masivos utilizando el paralelismo masivo.
1983 John Laird y Paul Rosenbloom, trabajando con Allen Newell, completan sus tesis doctorales en CMU sobre Soar (programa).
James F. Allen inventa el Cálculo de Intervalos, la primera formalización ampliamente utilizada de eventos temporales.
Mediados de la década de 1980 Las redes neuronales se utilizan ampliamente con el algoritmo de retropropagación, también conocido como el modo inverso de la diferenciación automática, publicado por Seppo Linnainmaa en 1970 y aplicado a redes neuronales por Paul Werbos.
1985 El programa de dibujo autónomo, AARON, creado por Harold Cohen, se demuestra en la Conferencia Nacional AAAI (basado en más de una década de trabajo, y con desarrollos posteriores mostrando avances significativos).
1986 El equipo de Ernst Dickmanns en la Universidad de las Fuerzas Armadas de Múnich construye los primeros coches robot, que conducen hasta 55 mph en calles vacías.
Barbara Grosz y Candace Sidner crean el primer modelo computacional de discurso, estableciendo el campo de investigación.[57]
1987 Marvin Minsky publica The Society of Mind, una descripción teórica de la mente como una colección de agentes cooperantes. Había estado dando conferencias sobre la idea durante años antes de que saliera el libro (véase Doyle 1983).[58]
Alrededor del mismo tiempo, Rodney Brooks introduce la arquitectura de subsumption y la robótica basada en el comportamiento como un modelo modular más minimalista de inteligencia natural; Nouvelle AI.
Lanzamiento comercial de la generación 2.0 de Alacrity por Alacritous Inc./Allstar Advice Inc. Toronto, el primer sistema comercial de asesoramiento estratégico y gerencial. El sistema se basaba en un sistema experto de reenvío desarrollado por la propia empresa con 3.000 reglas sobre la evolución de los mercados y las estrategias competitivas, coautorizado por Alistair Davidson y Mary Chung, fundadores de la empresa, con el motor subyacente desarrollado por Paul Tarvydas. El sistema Alacrity también incluía un pequeño sistema experto financiero que interpretaba estados financieros y modelos.[59]
1989 El desarrollo de la tecnología de integración a gran escala de semiconductor metal-óxido (VLSI), en forma de tecnología complementary MOS (CMOS), permitió el desarrollo de la tecnología práctica de redes neuronales artificiales en la década de 1980. Una publicación destacada en el campo fue el libro de 1989 Analog VLSI Implementation of Neural Systems de Carver A. Mead y Mohammed Ismail.[60]
Dean Pomerleau en CMU crea ALVINN (An Autonomous Land Vehicle in a Neural Network).

1990s[editar]

Date Development
1990s Avances importantes en todas las áreas de la IA, con demostraciones significativas en aprendizaje automático, tutoría inteligente, razonamiento basado en casos, planificación multiagente, programación, razonamiento incierto, minería de datos, comprensión y traducción del lenguaje natural, visión, realidad virtual, juegos y otros temas.
Early 1990s TD-Gammon, un programa de backgammon escrito por Gerry Tesauro, demuestra que el reforzamiento (aprendizaje) es lo suficientemente poderoso como para crear un programa de juego de nivel de campeonato al competir favorablemente con jugadores de clase mundial.
1991 La aplicación de programación DART implementada en la primera Guerra del Golfo recuperó la inversión de 30 años de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) en investigación de IA.[61]
1992 Carol Stoker y el equipo de robótica de la NASA Ames exploran la vida marina en la Antártida con un vehículo operado de forma remota Telepresence ROV bajo el hielo cerca de la bahía McMurdo, Antártida, y de forma remota a través de una conexión satelital desde Moffett Field, California.[62]
1993 Ian Horswill amplió la robótica basada en el comportamiento al crear Polly, el primer robot en navegar utilizando la visión por computadora y operar a velocidades similares a las de los animales (1 metro/segundo).
Rodney Brooks, Lynn Andrea Stein y Cynthia Breazeal iniciaron el ampliamente publicitado proyecto MIT Cog con numerosos colaboradores, en un intento de construir un robot humanoide infantil en solo cinco años.
La corporación ISX gana el premio "Contratista del año de DARPA"[63]​ por la Herramienta de Análisis y Replanificación Dinámica (DART), que supuestamente reembolsó la inversión completa del gobierno de los Estados Unidos en investigación de IA desde la década de 1950.[64]
1994 Lotfi Zadeh en la Universidad de California, Berkeley, crea "computación suave"[65]​ y construye una red mundial de investigación con una fusión de ciencia neural y sistemas de red neuronal, teoría de conjuntos difusos y sistemas difusos, algoritmos evolutivos, programación genética y teoría del caos y sistemas caóticos ("Fuzzy Logic, Neural Networks, and Soft Computing", Communications of the ACM, March 1994, Vol. 37 No. 3, pages 77–84).
Con pasajeros a bordo, los automóviles robóticos gemelos VaMP y VITA-2 de Ernst Dickmanns y Daimler-Benz recorren más de mil kilómetros en una autopista de tres carriles en París en tráfico pesado estándar a velocidades de hasta 130 km/h. Demuestran la conducción autónoma en carriles libres, la conducción en convoy y los cambios de carril a la izquierda y derecha con adelantamiento autónomo de otros automóviles.
El campeón mundial de damas inglesas (juego de las damas) Tinsley renuncia a una partida contra el programa de computadora Chinook. Chinook derrotó al jugador con la segunda calificación más alta, Lafferty. Chinook ganó el Torneo Nacional de Estados Unidos con la mayor ventaja en la historia.
Cindy Mason en la NASA organiza el primer AAAI Workshop sobre IA y el Medio Ambiente.[66]
1995 Cindy Mason en la NASA organiza el Primer Taller Internacional IJCAI sobre IA y el Medio Ambiente.[67]
"No Hands Across America": Un automóvil semiautónomo condujo de costa a costa a través de los Estados Unidos con dirección controlada por computadora durante 2797 mi (2849 km) del recorrido total. El acelerador y los frenos fueron controlados por un conductor humano.[68][69]
Uno de los automóviles robóticos de Ernst Dickmanns (con acelerador y frenos controlados por robots) recorrió más de 1000 millas desde Munich hasta Copenhague y regresó, en tráfico, a velocidades de hasta 120 mph, ejecutando ocasionalmente maniobras para adelantar a otros automóviles (solo en algunas situaciones críticas un conductor de seguridad se hizo cargo). Se utilizó visión activa para lidiar con escenas de calle que cambian rápidamente.
1996 Steve Grand, robótico y científico de la computación, desarrolla y lanza Creatures, una popular simulación de formas de vida artificial con bioquímica simulada, neurología con algoritmos de aprendizaje y ADN digital heredable.
1997 La máquina de ajedrez Deep Blue (IBM) derrota al entonces campeón mundial de ajedrez, Garry Kasparov.
Primer partido oficial de fútbol (soccer) de RoboCup con partidos en miniatura con 40 equipos de robots interactivos y más de 5000 espectadores.
El programa informático de Othello Logistello derrota al campeón mundial Takeshi Murakami con un marcador de 6-0.
El método de aprendizaje profundo long short-term memory (LSTM) se publicó en Neural Computation por Sepp Hochreiter y Juergen Schmidhuber.[70]​ LSTM se ha convertido en la red neuronal más citada del siglo XX.[6]
1998 Se lanza Furby de Tiger Electronics, que se convierte en el primer intento exitoso de producir un tipo de IA para alcanzar un entorno doméstico.
Tim Berners-Lee publica su documento Semantic Web Road map.[71]
Ulises Cortés y Miquel Sànchez-Marrè organizan el primer taller de Medio Ambiente e IA en Europa ECAI, "Binding Environmental Sciences and Artificial Intelligence".[72][73]
Leslie P. Kaelbling, Michael Littman, y Anthony Cassandra presentan POMDPs y un método escalable para resolverlos a la comunidad de IA, lo que impulsa su uso generalizado en robótica y planificación y programación automatizadas.[74]
1999 Sony lanza un robot doméstico mejorado similar a un Furby, el AIBO se convierte en una de las primeras "mascotas" artificialmente inteligentes que también es autónomo.
Finales de la década de 1990 Los web crawlers y otros programas de extracción de información basados en IA se vuelven esenciales en el uso generalizado de la World Wide Web.
Demostración de una habitación inteligente y agentes emocionales en el Laboratorio de IA del MIT.
Inicio del trabajo en la arquitectura Oxygen, que conecta computadoras móviles y estacionarias en una red adaptativa.

siglo XXI[editar]

2000s[editar]

Fecha Desarrollo
2000 Se comercializan los robopets interactivos ("smart toys"), cumpliendo la visión de los fabricantes de juguetes novedosos del siglo XVIII.
Cynthia Breazeal en el MIT publica su disertación sobre máquinas sociables, describiendo a Kismet (robot), con una cara que expresa emociones.
El robot Nomad explora regiones remotas de la Antártida en busca de muestras de meteoritos.
2002 La aspiradora autónoma Roomba de iRobot limpia el suelo mientras navega y evita obstáculos.
2004 Recomendación del lenguaje de ontología web OWL Web Ontology Language por parte del W3C (10 de febrero de 2004).
DARPA presenta el DARPA Grand Challenge, que requiere que los competidores produzcan vehículos autónomos para ganar un premio.
Los rovers de exploración robótica de NASA, Spirit y Opportunity, navegan de manera autónoma por la superficie de Marte.
2005 El robot humanoide artificialmente inteligente ASIMO de Honda es capaz de caminar tan rápido como un ser humano y entregar bandejas a los clientes en entornos de restaurantes.
La tecnología de recomendación basada en el seguimiento de la actividad web o el uso de medios lleva la IA al marketing. Ver TiVo Suggestions.
Nace Blue Brain, un proyecto para simular el cerebro a nivel molecular.[75]
2006 Conferencia de Inteligencia Artificial Dartmouth: Los próximos 50 años (AI@50) AI@50 (14-16 de julio de 2006)
2007 Philosophical Transactions of the Royal Society, B – Biology, una de las revistas científicas más antiguas del mundo, publica un número especial sobre el uso de la IA para comprender la inteligencia biológica, titulado Models of Natural Action Selection[76]
El juego de Damas es resuelto por un equipo de investigadores de la University of Alberta.
DARPA lanza el Urban Challenge para que los automóviles autónomos cumplan las reglas de tráfico y operen en un entorno urbano.
2008 Cynthia Mason en Stanford presenta su idea sobre Inteligencia Artificial Compasiva, en su artículo "Giving Robots Compassion".[77]
2009 Un LSTM entrenado por connectionist temporal classification (Alex Graves, Santiago Fernández, Faustino Gomez y Juergen Schmidhuber, 2006)[78]​ fue la primera red neuronal recurrente en ganar concursos de reconocimiento de patrones, ganando tres competencias en reconocimiento de escritura a mano conectada.[79][6]
2009 Google construye un automóvil autónomo.[80]

2010s[editar]

Fecha Desarrollo
2010 Microsoft lanzó Kinect para Xbox 360, el primer dispositivo de juego que rastrea el movimiento del cuerpo humano utilizando solo una cámara 3D y detección infrarroja, lo que permite a los usuarios jugar en su Xbox 360 sin cables. La tecnología galardonada de aprendizaje automático para captura de movimiento humano de este dispositivo fue desarrollada por el Grupo de Visión por Computadora en Microsoft Research, Cambridge.[81][82]
2011 Mary Lou Maher y Doug Fisher organizan el primer Taller de AAAI sobre IA y Sostenibilidad.[83]
El ordenador IBM Watson derrota a los campeones del programa de televisión Jeopardy! Rutter y Jennings.
2011–2014 Siri de Apple (2011), Google Now de Google (2012) y Cortana de Microsoft (2014) son aplicaciones de software para teléfonos inteligentes que utilizan lenguaje natural para responder preguntas, hacer recomendaciones y realizar acciones.
2013 El robot HRP-2 construido por SCHAFT Inc de Japón, una subsidiaria de Google, derrota a 15 equipos para ganar los DARPA Robotics Challenge Trials. HRP-2 obtuvo 27 de 32 puntos en ocho tareas necesarias para la respuesta a desastres. Las tareas incluyen conducir un vehículo, caminar sobre escombros, subir una escalera, quitar escombros, pasar por puertas, cortar una pared, cerrar válvulas y conectar una manguera.[84]
Se lanza NEIL (Never Ending Image Learner) en la Carnegie Mellon University para comparar y analizar constantemente las relaciones entre diferentes imágenes.[85]
2015 Rupesh Kumar Srivastava, Klaus Greff, y Juergen Schmidhuber utilizaron los principios de LSTM para crear la Red Highway, una red neuronal feedforward con cientos de capas, mucho más profunda que las redes anteriores.[86]​ 7 meses después, Kaiming He, Xiangyu Zhang; Shaoqing Ren y Jian Sun ganaron la competencia ImageNet 2015 con una variante de la red Highway network llamada Residual neural network.[87]​ Esta se ha convertido en la red neuronal artificial más citada del siglo XXI.[6]
Una carta abierta para prohibir el desarrollo y uso de armas autónomas firmada por Hawking, Musk, Wozniak y 3,000 investigadores en IA y robótica.[88]
Google DeepMind's AlphaGo (versión: Fan)[89]​ derrotó al campeón europeo de Go tres veces, el profesional de 2 dan Fan Hui, por 5 juegos a 0.[90]
2016 Google DeepMind's AlphaGo (versión: Lee)[89]​ derrotó a Lee Sedol por 4-1. Lee Sedol es un campeón coreano profesional de Go de 9 dan que ganó 27 torneos importantes de 2002 a 2016.[91]
2017 Asilomar Conference on Beneficial AI se llevó a cabo para discutir la ética de la IA y cómo lograr una IA beneficiosa evitando el riesgo existencial de la inteligencia artificial general.
Kazi Saabique Ahmed, un ex investigador de sistemas inteligentes de DARPA, exhibió un sistema de IA estrecha llamado AISabik en la CODExpo 2017 de Google.[92]
Deepstack[93]​ es el primer algoritmo publicado que vence a jugadores humanos en juegos de información imperfecta, como se muestra con significancia estadística en póker sin límite cabeza a cabeza. Poco después, la IA de póker Libratus, desarrollada por otro grupo de investigación, derrotó individualmente a cada uno de sus cuatro oponentes humanos, quienes están entre los mejores jugadores del mundo, con una tasa de ganancias agregada excepcionalmente alta y estadísticamente significativa.[94]​ A diferencia del ajedrez y el Go, el póker es un juego de información imperfecta.[95]
En mayo de 2017, Google DeepMind's AlphaGo (versión: Master) venció a Ke Jie, quien en ese momento ocupaba continuamente el primer puesto en el mundo durante dos años,[96][97]​ ganando cada juego en un enfrentamiento de tres juegos durante la Future of Go Summit.[98][99]
Un solucionador de problemas de satisfacción de la lógica proposicional booleana (SAT) prueba una conjetura matemática de larga data sobre triplas pitagóricas sobre el conjunto de números enteros. La prueba inicial, de 200 TB de longitud, fue verificada por dos comprobadores de pruebas automáticos certificados e independientes.[100]
Un bot de videojuego aprendido por máquina de OpenAI jugó en el torneo The International 2017 de Dota 2 en agosto de 2017. Ganó durante un juego de demostración 1 contra 1 contra el jugador profesional de Dota 2 Dendi.[101]
Google Lens, una herramienta de análisis y comparación de imágenes, fue lanzada en octubre de 2017 y asocia millones de paisajes, obras de arte, productos y especies a su descripción textual.
Google DeepMind reveló que AlphaGo Zero, una versión mejorada de AlphaGo, mostró mejoras significativas en el rendimiento mientras usaba muchas menos unidades de procesamiento tensorial (en comparación con AlphaGo Lee; usó la misma cantidad de TPUs que AlphaGo Master).[89]​ A diferencia de las versiones anteriores, que aprendieron el juego observando millones de movimientos humanos, AlphaGo Zero aprendió jugando solo contra sí mismo. El sistema luego derrotó a AlphaGo Lee en 100 juegos a cero y a AlphaGo Master en 89 a 11.[89]​ Aunque el aprendizaje no supervisado es un paso adelante, todavía queda mucho por aprender sobre la inteligencia general.[102]​ AlphaZero domina el ajedrez en cuatro horas, derrotando al mejor motor de ajedrez, StockFish 8. AlphaZero ganó 28 de los 100 juegos restantes; los otros 72 terminaron en empate.[103][104]
2018 El procesamiento del lenguaje AI de Alibaba supera a los mejores humanos en una prueba de lectura y comprensión de la Universidad de Stanford, obteniendo una puntuación de 82.44 frente a 82.304 en un conjunto de 100,000 preguntas.[105]
El European Lab for Learning and Intelligent Systems (también conocido como Ellis) se propuso como competidor paneuropeo de los esfuerzos de IA estadounidenses, con el objetivo de frenar la fuga de talentos, siguiendo el ejemplo del CERN después de la Segunda Guerra Mundial.[106]
Anuncio de Google Duplex, un servicio que permite a un asistente de IA reservar citas por teléfono. El Los Angeles Times califica la voz de la IA como una imitación "casi impecable" del habla humana.[107]
2019 AlphaStar de DeepMind alcanza el nivel de Gran Maestro en StarCraft II, superando al 99.8 por ciento de los jugadores humanos.[108]

2020s[editar]

Date Development
2020 En 2020, DeepSpeed es la biblioteca de optimización de deep learning de Microsoft para PyTorch que ejecuta T-NLG.[109]
En febrero de 2020, Microsoft presentó su Generación de Lenguaje Natural Turing (T-NLG), que en ese momento era el "modelo de lenguaje más grande publicado con 17 mil millones de parámetros".[110]
GPT-3 de OpenAI, un modelo de lenguaje autoregresivo de vanguardia que utiliza deep learning para producir una variedad de códigos informáticos, poesía y otras tareas de lenguaje excepcionalmente similares y casi indistinguibles de las escritas por humanos. Su capacidad era diez veces mayor que la de T-NLG. Se presentó en mayo de 2020,[111]​ y estaba en fase de prueba beta en junio de 2020.
2022 ChatGPT, un chatbot de IA desarrollado por OpenAI, debuta en noviembre de 2022. Inicialmente se basa en el modelo de lenguaje GPT-3.5 large. Si bien recibe elogios considerable por la amplitud de su base de conocimientos, sus habilidades deductivas y la fluidez similar a la de un humano en sus respuestas en lenguaje natural,[112][113]​ también recibe críticas por, entre otras cosas, su tendencia a "alucinar",[114][115]​ un fenómeno en el cual un AI responde con respuestas incorrectas desde el punto de vista factual con alta confianza. El lanzamiento desencadena una amplia discusión pública sobre la inteligencia artificial y su impacto potencial en la sociedad.[116][117]
2023 Para enero de 2023, ChatGPT cuenta con más de 100 millones de usuarios, convirtiéndose en la aplicación de consumo de más rápido crecimiento hasta la fecha.[118]
OpenAI lanza su modelo GPT-4 en marzo de 2023 y se considera una mejora impresionante respecto a GPT-3.5, aunque GPT-4 mantiene muchos de los mismos problemas de la versión anterior.[119]​ A diferencia de las iteraciones anteriores, GPT-4 es multimodal, lo que permite la entrada de imágenes además de texto. GPT-4 se integra en ChatGPT como un servicio para suscriptores. OpenAI afirma que en sus propias pruebas, el modelo obtuvo una puntuación de 1410 en el SAT (percentil 94),[120]​ 163 en el LSAT (percentil 88) y 298 en el Uniform Bar Exam (percentil 90).[121]
En respuesta a ChatGPT, Google lanza en marzo de 2023 de manera limitada su chatbot Google Bard, basado en la familia de grandes modelos de lenguaje LaMDA.[122][123]

Referencias[editar]

  1. McCorduck, 2004, pp. 4–5
  2. Needham! 1986,, p. 53
  3. Richard McKeon, ed. (1941). The Organon. Random House con Oxford University Press. 
  4. Giles, Timothy (2016). «Aristotle Writing Science: An Application of His Theory». Journal of Technical Writing and Communication 46: 83-104. S2CID 170906960. doi:10.1177/0047281615600633. 
  5. McCorduck, 2004, p. 6
  6. a b c d e f g h i j k l m n Schmidhuber, Juergen (2022). «Annotated History of Modern AI and Deep Learning». arXiv:2212.11279  [cs.NE]. 
  7. Russell y Norvig, 2003, p. 366
  8. O'Connor, Kathleen Malone (1994), The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam, University of Pennsylvania, pp. 1-435, archivado desde el original el 5 de diciembre de 2019, consultado el 10 de enero de 2007. .
  9. Hill, Donald R., ed. (1979). The Book of Ingenious Devices. Dortrecht, Netherlands; Boston; London: D. Reidel. ISBN 978-90277-0-833-5.  Parámetro desconocido |orig-year= ignorado (ayuda)
  10. «A Thirteenth Century Programmable Robot». Archivado desde el original el 29 de junio de 2007. Consultado el 24 de junio de 2023. 
  11. McCorduck, 2004, pp. 10–12, 37
  12. McCorduck, 2004, pp. 13–14
  13. McCorduck, 2004, pp. 14–15,Buchanan, 2005, p. 50
  14. McCorduck, 2004, pp. 36–40
  15. Sir Francis Bacon (1620). The New Organon: Novem Organum Scientiarum. 
  16. Sir Francis Bacon (2000). Francis Bacon: The New Organon (Cambridge Texts in the History of Philosophy). Cambridge University Press. 
  17. Please see Mechanical calculator#Other calculating machines
  18. Hubert Dreyfus, What Computers Can't Do
  19. McCorduck, 2004, p. 42
  20. Please see: Pascal's calculator#Pascal versus Schickard
  21. McCorduck, 2004, p. 26
  22. McCorduck, 2004, pp. 41–42
  23. McCorduck, 2004, p. 317
  24. McCorduck, 2004, pp. 43
  25. McCorduck, 2004, p. 17
  26. Adrien-Marie Legendre (1805). Nouvelles méthodes pour la détermination des orbites des comètes (en francés). Ghent University. F. Didot. 
  27. McCorduck, 2004, pp. 19–25
  28. McCorduck, 2004, pp. 26–34
  29. Cambier, Hubert (junio de 2016). «The Evolutionary Meaning of World 3». Philosophy of the Social Sciences 46 (3): 242-264. ISSN 0048-3931. S2CID 148093595. doi:10.1177/0048393116641609. 
  30. McCorduck, 2004, pp. 48–51
  31. Libro electrónico de Project Gutenberg Erewhon by Samuel Butler.Poes..... Archivado el 30 de abril de 2021 en Wayback Machine.
  32. McCorduck, 2004, pp. 59–60
  33. Randell, Brian. «From Analytical Engine to Electronic Digital Computer: The Contributions of Ludgate, Torres, and Bush». Archivado desde el original el 21 de septiembre de 2013. Consultado el 9 de septiembre de 2013. 
  34. McCorduck, 2004, p. 25
  35. Brush, Stephen G. (1967). «History of the Lenz-Ising Model». Reviews of Modern Physics 39 (4): 883-893. Bibcode:1967RvMP...39..883B. doi:10.1103/RevModPhys.39.883. 
  36. Amari, Shun-Ichi (1972). «Learning patterns and pattern sequences by self-organizing nets of threshold elements». IEEE Transactions C (21): 1197-1206. 
  37. Church, A. (1936). «An unsolvable problem of elementary number theory (first presented on 19 April 1935 to the American Mathematical Society)». American Journal of Mathematics 58 (2): 345-363. JSTOR 2371045. doi:10.2307/2371045. 
  38. K. Zuse (1936). Verfahren zur selbsttätigen Durchführung von Rechnungen mit Hilfe von Rechenmaschinen. Patent application Z 23 139 / GMD Nr. 005/021, 1936.
  39. McCorduck, 2004, pp. 61–62 y ver también The Life and Work of Konrad Zuse
  40. McCorduck, 2004, pp. 55–56
  41. Crevier 1993:22–25
  42. Samuel 1959
  43. Schaeffer, Jonathan. One Jump Ahead:: Challenging Human Supremacy in Checkers, 1997,2009, Springer, ISBN 978-0-387-76575-4. Capítulo 6.
  44. Novet, Jordan (17 de junio de 2017). «Everyone keeps talking about A.I.—here's what it really is and why it's so hot now». CNBC. Archivado desde el original el 16 de febrero de 2018. Consultado el 16 de febrero de 2018. 
  45. McCorduck, 2004, pp. 123–125,Crevier, 1993, pp. 44–46 y Russell y Norvig, 2003, p. 17
  46. Citado en Crevier, 1993, p. 46 y Russell y Norvig, 2003, p. 17
  47. «Minds, Machines and Gödel». Users.ox.ac.uk. Archivado desde el original el 19 de agosto de 2007. Consultado el 24 de noviembre de 2008. 
  48. Feigenbaum, Edward; Feldman, Julian, eds. (1963). Computers and thought : a collection of articles (1 edición). New York: McGraw-Hill. OCLC 593742426. 
  49. «This week in The History of AI at AIWS.net – Edward Feigenbaum and Julian Feldman published "Computers and Thought"». AIWS.net. Archivado desde el original el 24 de abril de 2022. Consultado el 5 de mayo de 2022. 
  50. «Feigenbaum & Feldman Issue "Computers and Thought," the First Anthology on Artificial Intelligence». History of Information. Archivado desde el original el 5 de mayo de 2022. Consultado el 5 de mayo de 2022. 
  51. Feigenbaum, Edward A.; Feldman, Julian (1963). «Computers and Thought». Association for Computing Machinery Digital Library (McGraw-Hill, Inc.). ISBN 9780070203709. Archivado desde el original el 5 de mayo de 2022. Consultado el 5 de mayo de 2022. 
  52. Ivakhnenko, A. G. (1973). Cybernetic Predicting Devices. CCM Information Corporation. 
  53. Ivakhnenko, A. G.; Grigorʹevich Lapa, Valentin (1967). Cybernetics and forecasting techniques. American Elsevier Pub. Co. 
  54. «The Machine Intelligence series». www.cs.york.ac.uk. Archivado desde el original el 5 de noviembre de 1999. 
  55. Amari, Shun'ichi (1967). «A theory of adaptive pattern classifier». IEEE Transactions. EC (16): 279-307. 
  56. «The Boyer-Moore Theorem Prover». Archivado desde el original el 23 de septiembre de 2015. Consultado el 15 de marzo de 2015. 
  57. Grosz, Barbara; Sidner, Candace L. (1986). «Attention, Intentions, and the Structure of Discourse». Computational Linguistics 12 (3): 175-204. Archivado desde el original el 10 de septiembre de 2017. Consultado el 5 de mayo de 2017. 
  58. Harry Henderson (2007). «Chronology». Artificial Intelligence: Mirrors for the Mind. NY: Infobase Publishing. ISBN 978-1-60413-059-1. Archivado desde el original|urlarchivo= requiere |url= (ayuda) el 15 de marzo de 2023. Consultado el 11 de abril de 2015. 
  59. «EmeraldInsight». Archivado desde el original el 2 de febrero de 2014. Consultado el 15 de marzo de 2015. 
  60. Mead, Carver A.; Ismail, Mohammed (8 de mayo de 1989). Analog VLSI Implementation of Neural Systems. The Kluwer International Series in Engineering and Computer Science 80. Norwell, MA: Kluwer Academic Publishers. ISBN 978-1-4613-1639-8. doi:10.1007/978-1-4613-1639-8. Archivado desde el original el 6 de noviembre de 2019. Consultado el 24 de enero de 2020. 
  61. DART: Revolutionizing Logistics Planning
  62. Stoker, Carol R. (1995). «From Antarctica to space: use of telepresence and virtual reality in control of a remote underwater vehicle». Mobile Robots Ix 2352: 288. Bibcode:1995SPIE.2352..288S. S2CID 128633069. doi:10.1117/12.198976. Archivado desde el original el 17 de julio de 2019. Consultado el 17 de julio de 2019. 
  63. «ISX Corporation». Archivado desde el original el 5 de septiembre de 2006. Consultado el 15 de marzo de 2015. 
  64. «DART overview». Archivado desde el original el 30 de noviembre de 2006. Consultado el 24 de julio de 2007. 
  65. Zadeh, Lotfi A., "Fuzzy Logic, Neural Networks, and Soft Computing," Communications of the ACM, March 1994, Vol. 37 No. 3, pages 77-84.
  66. «AAAI-first-ai-env-workshop.HTML». Archivado desde el original el 28 de julio de 2019. Consultado el 28 de julio de 2019. 
  67. «Ijcai-first-ai-env-workshop». Archivado desde el original el 28 de julio de 2019. Consultado el 28 de julio de 2019. 
  68. Jochem, Todd M.; Pomerleau, Dean A. «No Hands Across America Home Page». Archivado desde el original el 27 de septiembre de 2019. Consultado el 20 de octubre de 2015. 
  69. Jochem, Todd. «Back to the Future: Autonomous Driving in 1995». Robotic Trends. Archivado desde el original el 29 de diciembre de 2017. Consultado el 20 de octubre de 2015. 
  70. Hochreiter, Sepp; Schmidhuber, Jürgen (1 de noviembre de 1997). «Long Short-Term Memory». Neural Computation 9 (8): 1735-1780. ISSN 0899-7667. PMID 9377276. S2CID 1915014. doi:10.1162/neco.1997.9.8.1735. 
  71. «Semantic Web roadmap». W3.org. Archivado desde el original el 6 de diciembre de 2003. Consultado el 24 de noviembre de 2008. 
  72. Mason, Cindy; Sànchez-Marrè, Miquel (1999). «Binding Environmental Sciences and Artificial Intelligence». Environmental Modelling & Software 14 (5): 335-337. Archivado desde el original el 15 de marzo de 2023. Consultado el 27 de octubre de 2021. 
  73. «BESAI - Homepage». Archivado desde el original el 4 de julio de 2019. Consultado el 12 de agosto de 2019. 
  74. Kaelbling, Leslie Pack; Littman, Michael L; Cassandra, Anthony R. (1998). «Planning and acting in partially observable stochastic domains». Artificial Intelligence 101 (1–2): 99-134. doi:10.1016/s0004-3702(98)00023-x. Archivado desde el original el 17 de mayo de 2017. Consultado el 5 de mayo de 2017. 
  75. «Bluebrain – EPFL». bluebrain.epfl.ch. Archivado desde el original el 19 de marzo de 2019. Consultado el 2 de enero de 2009. 
  76. «Modelling natural action selection». Pubs.royalsoc.ac.uk. Archivado desde el original el 30 de septiembre de 2007. Consultado el 24 de noviembre de 2008. 
  77. «Giving Robots Compassion, C. Mason, Conference on Science and Compassion, Poster Session, Telluride, Colorado, 2012.». ResearchGate (en inglés). Consultado el 17 de julio de 2019. 
  78. Graves, Alex; Fernández, Santiago; Gomez, Faustino; Schmidhuber, Juergen (2006). «Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks». Proceedings of the International Conference on Machine Learning, ICML 2006: 369-376.  Parámetro desconocido |citeseerx= ignorado (ayuda)
  79. Graves, Alex; and Schmidhuber, Jürgen; Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks, in Bengio, Yoshua; Schuurmans, Dale; Lafferty, John; Williams, Chris K. I.; and Culotta, Aron (eds.), Advances in Neural Information Processing Systems 22 (NIPS'22), December 7th–10th, 2009, Vancouver, BC, Neural Information Processing Systems (NIPS) Foundation, 2009, pp. 545–552
  80. Fisher, Adam (18 de septiembre de 2013). «Inside Google's Quest To Popularize Self-Driving Cars». Popular Science. Bonnier Corporation. Archivado desde el original el 22 de septiembre de 2013. Consultado el 10 de octubre de 2013. 
  81. «Jamie Shotton at Microsoft Research». Microsoft Research. Archivado desde el original el 3 de febrero de 2016. Consultado el 3 de febrero de 2016. 
  82. «Human Pose Estimation for Kinect – Microsoft Research». Archivado desde el original el 3 de febrero de 2016. Consultado el 3 de febrero de 2016. 
  83. «AAAI Spring Symposium - AI and Design for Sustainability». Archivado desde el original el 29 de julio de 2019. Consultado el 29 de julio de 2019. 
  84. «DARPA Robotics Challenge Trials». US Defense Advanced Research Projects Agency. Archivado desde el original el 11 de junio de 2015. Consultado el 25 de diciembre de 2013. 
  85. «Carnegie Mellon Computer Searches Web 24/7 To Analyze Images and Teach Itself Common Sense». Archivado desde el original el 3 de julio de 2015. Consultado el 15 de junio de 2015. 
  86. Srivastava, Rupesh Kumar; Greff, Klaus; Schmidhuber, Jürgen (2 May 2015). «Highway Networks». arXiv:1505.00387  [cs.LG]. 
  87. He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2016). «Deep Residual Learning for Image Recognition». 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (Las Vegas, NV, USA: IEEE): 770-778. ISBN 978-1-4673-8851-1. arXiv:1512.03385. doi:10.1109/CVPR.2016.90. 
  88. Tegmark, Max. «Open Letter on Autonomous Weapons». Future of Life Institute. Archivado desde el original el 28 de abril de 2016. Consultado el 25 de abril de 2016. 
  89. a b c d Silver, David; Schrittwieser, Julian; Simonyan, Karen; Antonoglou, Ioannis; Huang, Aja; Guez, Arthur; Hubert, Thomas; Baker, Lucas; Lai, Matthew; Bolton, Adrian; Chen, Yutian; Lillicrap, Timothy; Fan, Hui; Sifre, Laurent; Driessche, George van den; Graepel, Thore; Hassabis, Demis (19 de octubre de 2017). «Mastering the game of Go without human knowledge». Nature 550 (7676): 354-359. Bibcode:2017Natur.550..354S. ISSN 0028-0836. PMID 29052630. S2CID 205261034. doi:10.1038/nature24270. Archivado desde el original el 24 de noviembre de 2020. Consultado el 27 de septiembre de 2020. 
  90. Hassabis, Demis (27 de enero de 2016). «AlphaGo: using machine learning to master the ancient game of Go». Google Blog. Archivado desde el original el 7 de mayo de 2016. Consultado el 25 de abril de 2016. 
  91. Ormerod, David. «AlphaGo defeats Lee Sedol 4–1 in Google DeepMind Challenge Match». Go Game Guru. Archivado desde el original el 17 de marzo de 2016. Consultado el 25 de abril de 2016. 
  92. Sabry, Fouad (21 de febrero de 2022). «Optical Transistor: Computing at the Speed of Light». Archivado desde el original el 15 de marzo de 2023. Consultado el 26 de febrero de 2023. 
  93. Moravčík, Matej; Schmid, Martin; Burch, Neil; Lisý, Viliam; Morrill, Dustin; Bard, Nolan; Davis, Trevor; Waugh, Kevin; Johanson, Michael; Bowling, Michael (5 de mayo de 2017). «DeepStack: Expert-level artificial intelligence in heads-up no-limit poker». Science (en inglés) 356 (6337): 508-513. Bibcode:2017Sci...356..508M. ISSN 0036-8075. PMID 28254783. S2CID 1586260. arXiv:1701.01724. doi:10.1126/science.aam6960. 
  94. «Libratus Poker AI Beats Humans for $1.76m; Is End Near?». PokerListings. 30 de enero de 2017. Archivado desde el original el 17 de marzo de 2018. Consultado el 16 de marzo de 2018. 
  95. Solon, Olivia (30 de enero de 2017). «Oh the humanity! Poker computer trounces humans in big step for AI». the Guardian. Archivado desde el original el 8 de abril de 2018. Consultado el 19 de marzo de 2018. 
  96. «柯洁迎19岁生日 雄踞人类世界排名第一已两年» (en chino). May 2017. Archivado desde el original el 11 de agosto de 2017. Consultado el 4 de septiembre de 2021. 
  97. «World's Go Player Ratings». 24 de mayo de 2017. Archivado desde el original el 1 de abril de 2017. Consultado el 4 de septiembre de 2021. 
  98. «Google's AlphaGo Continues Dominance With Second Win in China». Wired. 25 de mayo de 2017. Archivado desde el original el 27 de mayo de 2017. Consultado el 4 de septiembre de 2021. 
  99. «After Win in China, AlphaGo's Designers Explore New AI». Wired. 27 de mayo de 2017. Archivado desde el original el 2 de junio de 2017. Consultado el 4 de septiembre de 2021. 
  100. «The Science of Brute Force». ACM Communications. August 2017. Archivado desde el original el 29 de agosto de 2017. Consultado el 5 de octubre de 2018. 
  101. «Dota 2». 11 de agosto de 2017. Archivado desde el original el 11 de agosto de 2017. Consultado el 7 de noviembre de 2017. 
  102. Greenemeier, Larry (18 de octubre de 2017). «AI versus AI: Self-Taught AlphaGo Zero Vanquishes Its Predecessor». Scientific American. Archivado desde el original el 19 de octubre de 2017. Consultado el 18 de octubre de 2017. 
  103. Knight, Will (7 de diciembre de 2017). «AlphaZero's "Alien" Chess Shows the Power, and the Peculiarity, of AI». MIT Technology Review. Archivado desde el original el 10 de diciembre de 2017. Consultado el 8 de diciembre de 2017. 
  104. Russon, Mary-Ann (7 de diciembre de 2017). «DeepMind's AlphaZero now showing human-like intuition in historical 'turning point' for AI». International Business Times UK. Archivado desde el original el 7 de diciembre de 2017. Consultado el 8 de diciembre de 2017. 
  105. Alibaba's AI Outguns Humans in Reading Test Archivado el 17 de enero de 2018 en Wayback Machine.. 15 January 2018
  106. Sample, Ian (23 de abril de 2018). «Scientists plan huge European AI hub to compete with US». The Guardian (US edición). Archivado desde el original el 24 de abril de 2018. Consultado el 23 de abril de 2018. 
  107. Pierson, David (2018). «Should people know they're talking to an algorithm? After a controversial debut, Google now says yes». Los Angeles Times. Archivado desde el original el 17 de mayo de 2018. Consultado el 17 de mayo de 2018. 
  108. Sample, Ian (2019). «AI becomes grandmaster in 'fiendishly complex' StarCraft II». The Guardian. Archivado desde el original el 29 de diciembre de 2020. Consultado el 30 de julio de 2021. 
  109. «Microsoft Updates Windows, Azure Tools with an Eye on The Future». PCMag UK. 22 de mayo de 2020. Archivado desde el original el 4 de agosto de 2020. Consultado el 1 de agosto de 2020. 
  110. Sterling, Bruce (13 de febrero de 2020). «Web Semantics: Microsoft Project Turing introduces Turing Natural Language Generation (T-NLG)». Wired. ISSN 1059-1028. Archivado desde el original el 4 de noviembre de 2020. Consultado el 31 de julio de 2020. 
  111. Brown, Tom B.; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla (2020-07-22). «Language Models are Few-Shot Learners». arXiv:2005.14165  [cs.CL]. 
  112. Thompson, Derek (8 de diciembre de 2022). «Breakthroughs of the Year». The Atlantic. Archivado desde el original el 15 de enero de 2023. Consultado el 18 de diciembre de 2022. 
  113. Scharth, Marcel (5 de diciembre de 2022). «The ChatGPT chatbot is blowing people away with its writing skills. An expert explains why it's so impressive». The Conversation (en inglés). Archivado desde el original el 19 de enero de 2023. Consultado el 30 de diciembre de 2022. 
  114. Rachini, Mouhamad (15 de diciembre de 2022). «ChatGPT a 'landmark event' for AI, but what does it mean for the future of human labor and disinformation?». CBC. Archivado desde el original el 19 de enero de 2023. Consultado el 18 de diciembre de 2022. 
  115. Vincent, James (5 de diciembre de 2022). «AI-generated answers temporarily banned on coding Q&A site Stack Overflow». The Verge (en inglés estadounidense). Archivado desde el original el 17 de enero de 2023. Consultado el 5 de diciembre de 2022. 
  116. Cowen, Tyler (6 de diciembre de 2022). «ChatGPT Could Make Democracy Even More Messy». Bloomberg News. Archivado desde el original el 7 de diciembre de 2022. Consultado el 6 de diciembre de 2022. 
  117. «The Guardian view on ChatGPT: an eerily good human impersonator». The Guardian (en inglés). 8 de diciembre de 2022. Archivado desde el original el 16 de enero de 2023. Consultado el 18 de diciembre de 2022. 
  118. Milmo, Dan (2 de febrero de 2023). «ChatGPT alcanza los 100 millones de usuarios dos meses después de su lanzamiento». The Guardian (en inglés británico). ISSN 0261-3077. Archivado desde el original el 3 de febrero de 2023. Consultado el 3 de febrero de 2023. 
  119. Belfield, Haydn (25 de marzo de 2023). «Si tu modelo de IA va a tener éxito, debe ser seguro». Vox (en inglés). Archivado desde el original el 28 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  120. «SAT: Comprender las puntuaciones». College Board. 2022. Archivado desde el original el 16 de marzo de 2023. Consultado el 21 de marzo de 2023. 
  121. OpenAI (2023). «Informe técnico de GPT-4». arXiv:2303.08774  [cs.CL]. 
  122. Elias, Jennifer (31 de enero de 2023). «Google está pidiendo a los empleados que prueben competidores potenciales de ChatGPT, incluido un chatbot llamado 'Apprentice Bard'». CNBC (en inglés). Archivado desde el original el 2 de febrero de 2023. Consultado el 2 de febrero de 2023. 
  123. Elias, Jennifer (febrero de 2023). «Google pide a los empleados que reescriban las respuestas incorrectas de Bard, dice que la IA 'aprende mejor mediante el ejemplo'». CNBC (en inglés). Archivado desde el original el 16 de febrero de 2023. Consultado el 16 de febrero de 2023. 

Enlaces externos[editar]