Singularidad tecnológica

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

La singularidad tecnológica es el advenimiento hipotético de inteligencia artificial general (también conocida como "IA fuerte", del inglés “strong AI). La singularidad tecnológica implica que un equipo de cómputo, red informática, o un robot podrían ser capaces de auto-mejorarse recursivamente (rediseño de sí mismo), o en el diseño y construcción de computadoras o robots mejores que él mismo. Se dice que las repeticiones de este ciclo probablemente darían lugar a un efecto fuera de control -una explosión de inteligencia [1] [2] - donde las máquinas inteligentes podrían diseñar generaciones de máquinas sucesivamente cada vez más potentes, la creación de inteligencia muy superior al control y la capacidad intelectual humana.[3]

El primer uso del término "singularidad" en este contexto se hizo en 1958 por el matemático y físico húngaro John von Neumann. En 1958, en relación con un resumen de una conversación con von Neumann, Stanislaw Ulam describió "nunca acelerar el avance de la tecnología y los cambios en el modo de la vida humana, lo que da la apariencia de que se acerca alguna singularidad esencial en la historia de la carrera más allá de los asuntos humanos, tales como los conocemos, no pudo seguir".[4] El término fue popularizado por el matemático, informático y autor de ciencia ficción Vernor Vinge, quien sostiene que la inteligencia artificial, la mejora biológica humana, o interfaces cerebro-ordenador podrían ser las posibles causas de la singularidad.[5] Ray Kurzweil citó el uso de von Neumann del término en un prólogo de von Neumann del clásico “The computer and the Brain”.

Kurzweil predice que la singularidad ocurrirá alrededor del 2045 [6] , mientras que Vinge la predice en algún tiempo antes del 2030.[7] En la Cumbre de la Singularidad del 2012, Stuart Armstrong hizo un estudio sobre las predicciones de la inteligencia artificial general (AGI) de los expertos y se encontró una amplia gama de fechas predichas, con un valor medio de 2040. Discutiendo el nivel de incertidumbre en las estimaciones de AGI, dijo Armstrong en 2012, "No es completamente formalizada, pero mi estimación actual del 80% es algo así como a partir de cinco a 100 años." [8]

Manifestaciones[editar]

Explosión de inteligencia[editar]

La IA fuerte podría provocar una “explosión de inteligencia”, un término acuñado en 1965 por I.J. Good. [9] A pesar de que el progreso tecnológico se ha acelerado, se ha visto limitado por la inteligencia básica del cerebro humano, que no ha tenido, según Paul R. Ehrlich, un cambio significativo durante los últimos milenios. [10] Sin embargo, con el creciente poder de las computadoras y otras tecnologías, eventualmente podría ser posible construir una máquina más inteligente que la humanidad. [11] Si una inteligencia sobrehumana fuese inventada -ya sea a través de la amplificación de la inteligencia humana o a través de la inteligencia artificial- podría ser capaz de aportar una mayor resolución de problemas y habilidades inventivas que los humanos actuales son capaces de hacer. Podría entonces diseñar una máquina mejor, capaz de re-escribir su propio software para ser aún más inteligente. Esta máquina sería capaz entonces de seguir para diseñar una máquina de mayor capacidad. Estas iteraciones de auto-mejora recursiva podrían acelerar, permitiendo potencialmente un enorme cambio cualitativo antes que los límites superiores impuestos por las leyes de la física o de cálculo teórico fueran fijados.[12] [13] [14]

Aparición de la superinteligencia[editar]

Muchos de los escritores más reconocidos sobre la singularidad, como Vernor Vinge y Ray Kurzweil, definen el concepto en términos de la creación tecnológica de superinteligencia. Ellos argumentan que es difícil o imposible para los seres humanos de hoy en día predecir cómo será la vida de los seres humanos en un mundo post-singularidad. [6] [7] [15] El término "singularidad tecnológica" fue acuñado originalmente por Vinge , quien hizo una analogía entre la ruptura de nuestra capacidad de predecir lo que sucedería después del desarrollo de la superinteligencia y la ruptura de la capacidad predictiva de la física moderna en la singularidad del espacio-tiempo, más allá del horizonte de sucesos de un agujero negro.[15]

Singularidad de la No-IA[editar]

Algunos autores utilizan "la singularidad" de una manera más amplia para referirse a los cambios radicales en nuestra sociedad, provocados por las nuevas tecnologías como la nanotecnología molecular; [16] [17] [18] aunque Vinge y otros destacados escritores declaran específicamente que sin la superinteligencia, estos cambios no calificarían como una verdadera singularidad. [7] Muchos autores también vinculan la singularidad de las observaciones del crecimiento exponencial de diversas tecnologías (con la Ley de Moore, que es el ejemplo más prominente). Con el uso de tales observaciones como base para la predicción de la singularidad, es probable que suceda en algún momento del siglo 21.[17] [19]

Plausibilidad[editar]

Gary Marcus afirma que "prácticamente todo el mundo en el campo de la IA cree" que las máquinas algún día superarán a los humanos y "en cierto nivel, la única diferencia real entre los entusiastas y los escépticos es un marco de tiempo." [20] [20] Sin embargo, muchos tecnólogos y académicos prominentes disputan la plausibilidad de una singularidad tecnológica, incluyendo a Paul Allen, Jeff Hawkins, John Holland, Jaron Lanier, y Gordon Moore, cuya Ley de Moore se cita a menudo en apoyo del concepto. [21] [22] [23]

Causa probable: el crecimiento exponencial[editar]

Ray Kurzweil escribe que, debido a los cambios de paradigma, una tendencia de crecimiento exponencial extiende la ley de Moore de circuitos integrados para los primeros transistores, los tubos de vacío, relés y equipos electromecánicos. Él predice que el crecimiento exponencial va a continuar, y que en pocas décadas la potencia de cálculo de todos los ordenadores superará al de ("sin contraste") los cerebros humanos, con la inteligencia artificial sobrehumana que aparece en la misma época.

El crecimiento exponencial de la tecnología informática sugerido por la Ley de Moore es comúnmente citado como una razón para esperar una singularidad en un futuro relativamente próximo, y una serie de autores han propuesto generalizaciones de la Ley de Moore. El informático y futurista Hans Moravec propuso en un libro de 1998 [24] que la curva de crecimiento exponencial podría extenderse de nuevo a través de tecnologías de computación previas al circuito integrado. El futurista Ray Kurzweil postula una ley de rendimientos acelerados, en el que la velocidad del cambio tecnológico (y, en general, de todos los procesos evolutivos [25] ) aumenta de manera exponencial, la generalización de la Ley de Moore al igual que en la propuesta de Moravec, y también incluyendo la tecnología de materiales (especialmente aplicada a la nanotecnología), la tecnología médica y otras.[26] Entre 1986 y 2007, la capacidad específica de la aplicación de las máquinas para computar la información per cápita, se ha duplicado cada 14 meses; la capacidad per cápita de ordenadores de uso general en el mundo se ha duplicado cada 18 meses; la capacidad mundial de telecomunicaciones per cápita se duplicó cada 34 meses; y la capacidad de almacenamiento del mundo per cápita se duplicó cada 40 meses. [27] Al igual que otros autores, Kurzweil se reserva el término "singularidad" a un rápido aumento de la inteligencia (a diferencia de otras tecnologías), la escritura, por ejemplo, que "La Singularidad nos permitirá trascender las limitaciones de nuestros cuerpos y cerebros biológicos ... No habrá distinción, después de la Singularidad, entre el ser humano y la máquina". [28] Se cree que el "diseño del cerebro humano, aunque no es sencillo, es no obstante un billón de veces más simples de lo que parece, debido a la masiva redundancia". [29] Según Kurzweil, la razón por la que el cerebro tiene una calidad desordenada e impredecible es porque él, como la mayoría de los sistemas biológicos, es un" fractal probabilístico". [30] También define su fecha prevista de la singularidad (2045) en términos de cuando se espera que las inteligencias basadas en la informática excedan significativamente la suma total de la capacidad intelectual humana, la escritura de los avances en la computación antes de esa fecha "no va a representar a la Singularidad" porque no lo hacen "para corresponder a una profunda expansión de nuestra inteligencia."[31]

Cambio Acelerado[editar]

Según Kurzweil, su gráfica logarítmica de 15 listas de cambios de paradigma para los eventos históricos clave muestra una tendencia exponencial.

Algunos defensores de la singularidad argumentan su inevitabilidad mediante la extrapolación de las tendencias del pasado, en especial las relativas en el acortamiento de la brecha entre las mejoras y la tecnología. Uno de los primeros usos del término "singularidad" en el contexto de los avances tecnológicos, Stanislaw Ulam (1958) habla de una conversación con John von Neumann sobre el cambio de aceleración:

Una conversación se centró en los avances cada vez más acelerados de la tecnología y los cambios en el modo de la vida humana, lo que da la apariencia de que se acerca una singularidad esencial en la historia más allá de los asuntos humanos, y tal como los conocemos, no podrán continuar.[4]

Hawkins (1983) escribe que "mindsteps", cambios dramáticos e irreversibles a paradigmas o visiones del mundo, se están acelerando en la frecuencia cuantificada en su ecuación de la misma. Cita los inventos de la escritura, las matemáticas y la informática como ejemplos sobre tales cambios.

El análisis de Kurzweil sobre la historia concluye que el progreso tecnológico sigue un patrón de crecimiento exponencial, a raíz de lo que él llama la "Ley de Aceleración de Devoluciones" (del inglés “Law of Accelerating Returns”). Cada vez que la tecnología se acerca a una barrera, Kurzweil escribe que, las nuevas tecnologías la supererán. Él predice que los cambios de paradigmas se volverán cada vez más comunes, lo que lleva al "cambio tecnológico tan rápido y profundo que representa una ruptura en el tejido de la historia humana". [32] Kurzweil cree que la singularidad se producirá antes del final del siglo 21, con establecimiento de la fecha a 2045.[33] Sus predicciones difieren de Vinge, el cual predice un ascenso gradual a la singularidad, en lugar de una auto-mejora rápida de la inteligencia sobrehumana de Vinge.

Presumiblemente, una singularidad tecnológica llevaría a un rápido desarrollo de una civilización Kardashev Tipo I, la cual ha logrado el dominio de los recursos de su planeta de origen.[34]

Peligros frecuentemente citados incluyen a los asociados comúnmente con la nanotecnología molecular y la ingeniería genética. Estas amenazas son los principales problemas para los dos defensores y críticos de la singularidad, que fueron objeto de artículo de la revista Wired de Bill Joy "Por qué el futuro no nos necesita" (“Why the future doesn’t need us”)[35]

La Acceleration Studies Foundation (al español, Fundación de Estudios de Aceleración), una fundación educativa sin fines de lucro fundada por John Smart, dedicada a la divulgación, la educación, la investigación y a la defensa en relación con la aceleración del cambio.[36] En ella se produce la conferencia sobre la aceleración del cambio (Accelerating Change) en la Universidad de Stanford, y mantiene el sitio educativo Aceleration Watch.

Los avances recientes, como la producción en masa del grafeno utilizando mezcladores modificados de cocina (2014) y los superconductores de alta temperatura basados en metamateriales, podrían permitir supercomputadoras que, utilizarían tanta energía como un típico Core I7 (45W), y podrían alcanzar la misma potencia de cálculo como el sistema de IBM Blue Gene/L.[37] [38]

Críticas[editar]

Algunos críticos afirman que ningún equipo o máquina podrían alcanzar la inteligencia humana, mientras que otros sostienen que la definición de la inteligencia es irrelevante si el resultado final es el mismo. [39]

Steven Pinker declaró en 2008,

(...) No hay la más mínima razón para creer en una singularidad que viene. El hecho de que se puede visualizar un futuro en su imaginación no es evidencia de que es probable o incluso posible. Mira las ciudades abovedadas, desplazamientos jet-pack, ciudades bajo el agua, edificios de millas de alto, y los automóviles de propulsión nuclear – todas eran fantasías futuristas cuando yo era un niño que nunca llegaron. La potencia de procesamiento de Sheer no es un polvo mágico que resuelve mágicamente todos tus problemas.(...)[21]

Martin Ford en Las Luces en el túnel: Automatización, Tecnología Acelerar y la economía del futuro (del inglés, The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future)[40] postula una "paradoja de la tecnología" en la que antes de la singularidad podrían ocurrir trabajos rutinarios en los que la economía sería automatizada, ya que esto requeriría una nivel de tecnología inferior a la de la singularidad. Esto provocaría desempleo masivo y la caída de la demanda del consumidor, que a su vez destruirían el incentivo para invertir en las tecnologías necesarias para lograr la singularidad. El desplazamiento de empleo es cada vez menos limitado a trabajos tradicionalmente considerados como "de rutina".[41]

Joan Slonczewski y Adam Gopnik argumentan que la Singularidad es un proceso gradual; que como seres humanos gradualmente externalizamos nuestra capacidad a las máquinas, [42] que redefinimos esas habilidades como inhumanas, sin darse cuenta de lo poco que queda. Este concepto se denomina Singularidad Mitocondrial. [43] La idea se refiere a las mitocondrias, los orgánulos que se desarrollan a partir de bacterias autónomas, pero ahora controlan nuestras células vivas. En el futuro, el "ser humano" dentro del exoesqueleto de la máquina podría existir sólo para encenderla.

Jared Diamond, en Colapso: Por qué unas sociedades perduran y otras desaparecen (del inglés, Collapse: How Societies Choose to Fail or Succeed), sostiene que las culturas auto-limitantes, cuando superen la capacidad de carga sostenible de su entorno, y el consumo de los recursos estratégicos (con frecuencia la madera, suelos o agua) crearán una retroalimentación positiva deletérea repetitiva que conduciría finalmente al colapso social y el retroceso tecnológico.

Theodore Modis [44] [45] y Jonathan Huebner [46] sostienen que el ritmo de la innovación tecnológica no sólo ha dejado de aumentar, pero en realidad está ahora en declive (John Smart, sin embargo, critica el análisis de Huebner [47] ). La evidencia de este descenso es que la subida de las frecuencias de reloj de las computadoras está retrasándose, aunque la predicción de Moore, que la densidad del circuito sigue manteniéndose con un aumento exponencial. Esto es debido a la excesiva acumulación de calor desde el chip, que no puede disipar lo suficientemente rápido para evitar que el chip de derrita cuando se opera a altas velocidades. Los avances en la velocidad pueden ser posible en el futuro, en virtud de más diseños de CPU energéticamente eficientes y procesadores de multi-céldas.[48] Mientras que Kurzweil utiliza los recursos y trabajos de Modis, alrededor de la aceleración del cambio, Modis se distanció de la tesis de Kurzweil de una "singularidad tecnológica", alegando que carece de rigor científico.[45]

Otros proponen que otras "singularidades" se pueden encontrar a través del análisis de las tendencias de la población mundial, el producto interno bruto mundial, entre otros índices. Andrey Korotayev y otros argumentan que las curvas hiperbólicas de crecimiento histórico se le pueden atribuir a los ciclos de retroalimentación que dejaron de afectar a las tendencias mundiales en la década de 1970, y que el crecimiento hiperbólico no debe esperarse en el futuro.[49] [50]

En “El Progreso de la Informática” (del inglés, The Progress of Computing), William Nordhaus argumentó que, antes de 1940, los equipos siguieron el crecimiento lento de la economía industrial tradicional, rechazando así las extrapolaciones de la ley de Moore a las computadoras del siglo 19. Schmidhuber (2006) sugiere diferencias en la memoria de los acontecimientos recientes y lejanos para crear una ilusión de la aceleración del cambio, y que tales fenómenos pueden ser responsables de las predicciones apocalípticas del pasado.

Andrew Kennedy, en su artículo de 2006 para la Sociedad Interplanetaria Británica discute el cambio y el crecimiento en las velocidades de los viajes espaciales, [51] declaró que aunque el crecimiento global a largo plazo es inevitable, es pequeño, que incorpora subidas y bajadas, y señaló que " Las nuevas tecnologías siguen las leyes del uso de la energía y la información de difusión conocidas y están obligados a conectarse con los que existen. Notables descubrimientos teóricos, si terminan siendo utilizados totalmente, lograrían desempeñar su papel en el mantenimiento de la tasa de crecimiento: y que no hacen de su curva trazada... redundante". Afirmó que el crecimiento exponencial no es predictor de sí mismo, e ilustra esto con ejemplos tales como la teoría cuántica. La cuántica fue concebida en 1900, y la teoría cuántica que estaba en existencia se aceptó aproximadamente 25 años más tarde. Sin embargo, se tardó más de 40 años por Richard Feynman y otros para producir números significativos en la teoría. Bethe entendió la fusión nuclear en 1935, pero 75 años después están siendo utilizados los reactores de fusión con parámetros experimentales. Del mismo modo, el entrelazamiento cuántico se entendía en 1935, pero no en el punto de ser utilizados en la práctica hasta el siglo 21.

Paul Allen argumenta lo contrario sobre los retornos acelerados, el freno de la complejidad;[23] la ciencia más avanzada hacia la comprensión hace que la inteligencia se haga más difícil, y sería para hacer progresos adicionales. Un estudio sobre la cantidad de patentes muestra que la creatividad humana no muestra retornos acelerados, pero de hecho, como sugiere Joseph Tainter en su artículo “El Colapso de las Sociedades Complejas” (del ingés, The Collapse of Complex Societies),[52] una ley de rendimientos decrecientes. El número de patentes por cada mil alcanzó su punto máximo en el período de 1850 a 1900, y ha ido disminuyendo desde entonces.[46] El crecimiento de la complejidad con el tiempo llega a ser autolimitada, y conduce a un generalizado "colapso general de sistemas".

Jaron Lanier refuta la idea de que la singularidad es inevitable. Él dice: "Yo no creo que la tecnología se esté creando a sí misma. No es un proceso en el anonimato.". Él va a afirmar: ". La razón para creer en la acción humana sobre el determinismo tecnológico es que a continuación, puede tener una economía donde la gente gane su propio camino e invente sus propias vidas. Si se estructura una sociedad sin enfatizar a la acción humana individual, que es lo mismo operacionalmente como negar a las personas influyentes, la dignidad y la autodeterminación ... Parea abrazar [la idea de la Singularidad] sería una celebración de mal gusto y mala política."[53]

Además de las críticas generales del concepto de singularidad, varios críticos han planteado cuestiones con la carta emblemática de Kurzweil. Una línea de crítica es que un gráfico log-log de esta naturaleza se inclina intrínsecamente hacia un resultado en línea recta. Otros identifican un sesgo de selección en los puntos que Kurzweil elige utilizar. Por ejemplo, el biólogo PZ Myers señala que muchos de los primeros "eventos" evolutivos fueron detenidos arbitrariamente.[54] Kurzweil ha refutado esto, trazando eventos evolutivos de 15 fuentes neutrales, y demostrando que encajan en una línea recta en un gráfico log-log. The Economist se burló de la idea con un gráfico extrapolando el número de hojas en una máquina de afeitar, la cual ha aumentado en los últimos años entre uno hasta cinco, y que aumentará cada vez más rápido hasta el infinito.[55]

Ramificaciones[editar]

Incertidumbre y riesgos[editar]

El término "singularidad tecnológica" refleja la idea de que tal cambio puede ocurrir de repente, y que es difícil predecir cómo el nuevo mundo resultante operaría. [56] [57] No está claro si una explosión de inteligencia de este tipo sería beneficiosa o perjudicial, o incluso una amenaza existencial. [58] [59] Como el tema no ha sido tratado por los investigadores de inteligencia artificial general, a pesar de que el tema de la inteligencia artificial amigable sea investigada por el Instituto Futuro de la Humanidad (Future of Humanity Institute) y el Instituto para la Singularidad Inteligencia artificial (Singularity Institute for Artificial Intelligence), que ahora es el Instituto de Investigación en Inteligencia de la Máquina (Machine Intelligence Research Institute).[56]

Implicaciones para la sociedad humana[editar]

En febrero de 2009, bajo los auspicios de la Asociación para el Avance de la Inteligencia Artificial (AAAI), Eric Horvitz presidió una reunión de informáticos, investigadores de inteligencia artificial y robótica en Asilomar en Pacific Grove, California. El objetivo fue discutir el posible impacto de la hipotética posibilidad de que los robots podrían llegar a ser autosuficientes y capaces de tomar sus propias decisiones. Discutieron la medida en que las computadoras y los robots podrían ser capaces de adquirir autonomía, y en qué medida podrían utilizar tales habilidades para plantear amenazas o riesgos.

Algunas máquinas han adquirido diversas formas de semi-autonomía, incluyendo la capacidad de localizar sus propias fuentes de energía y elegir objetivos para atacar con armas. Además, algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia de la cucaracha." Los asistentes a la conferencia señalaron que la autoconciencia como se muestra en la ciencia-ficción es probablemente poco probable, pero que existen otros riesgos y peligros potenciales.[60]

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, sobre todo cuando a estos robots se les da algún grado de funciones autónomas.[61] Un informe de la marina de Estados Unidos indica que, como los robots militares se vuelven más complejos, debería de haber una mayor atención a implicaciones sobre su capacidad de tomar decisiones autónomas.[62] [63]

La AAAI ha encargado un estudio para examinar esta cuestión, [64] que apunta a programas como el dispositivo de adquisición de idiomas (Language Acquisition Device), que se reivindica para emular la interacción humana.

Algunos apoyan el diseño de la inteligencia artificial amable, lo que significa que los avances que ya se están produciendo con la IA también deben incluir un esfuerzo para que la IA sea intrínsecamente amable y humana.[65]

De Isaac Asimov, “las Tres Leyes de la Robótica” es uno de los primeros ejemplos de medidas de seguridad propuestas para la IA. Las leyes están destinadas a prevenir que los robots de inteligencia artificial dañen a los seres humanos. En las historias de Asimov, los problemas percibidos con las leyes tienden a surgir como resultado de un malentendido por parte de algún operador humano; los propios robots están simplemente actuando para su mejor interpretación de sus normas. En el 2004 la película “Yo, Robot”, vagamente basada en historias de robots de Asimov, una computadora de IA intenta tomar el control completo sobre la humanidad con el propósito de proteger a la humanidad de sí misma, debido a una extrapolación de las Tres Leyes. En 2004, el Instituto de Investigación en Inteligencia de la Máquina lanzó una campaña en Internet llamada “3 Leyes inseguras” para crear conciencia sobre los problemas de seguridad de la IA y la insuficiencia de las leyes de Asimov en particular. [66]

Historia del término[editar]

Nicolas de Condorcet, un francés matemático, filósofo y revolucionario del siglo 18, se le atribuye comúnmente por ser una de las primeras personas que afirmara la existencia de una singularidad. En su Boceto para un cuadro histórico del progreso de la mente humana de 1794 (del inglés, Sketch for a Historical Picture of the Progress of the Human Mind), Condorcet afirma,

La naturaleza no ha establecido un plazo para la perfección de las facultades humanas; que la perfectibilidad del hombre es verdaderamente indefinida; y que el progreso de esta perfectibilidad, de ahora en adelante es independiente de cualquier poder que pudiera desear detenerla, no tiene otro límite que la duración del mundo en los que la naturaleza nos ha echado. Este progreso variará sin duda en la velocidad, pero nunca será invertido el tiempo en el que la tierra ocupa su lugar actual en el sistema del universo, y siempre y cuando las leyes generales de este sistema produzcan ni un cataclismo general ni cambios tales como la voluntad de privar a la humanidad de sus facultades actuales y sus recursos actuales.""[67]

En 1847, R. Thornton, el editor de “El Expositor del cristianismo primitivo” (del inglés, The Expounder of Primitive Christianity),[68] [69] escribió sobre la reciente invención de una calculadora mecánica de cuatro funciones:

... Este tipo de máquinas, por los que el estudioso puede, girando una manivela, moler a cabo la solución de un problema sin el cansancio de aplicación mental, lo haría por su introducción en las escuelas, hacer daños incalculables. Pero, ¿quién sabe que tales máquinas cuando sean traídas a una mayor perfección, no pueden pensar en un plan para remediar todos sus defectos y luego moler las ideas más allá del alcance de la mente mortal?

En 1863, Samuel Butler escribió “Darwin entre las máquinas” (del inglés, Darwin Among the Machines), que se incorporó más tarde en su famosa novela “Erewhon”. Señaló la rápida evolución de la tecnología y la comparó con la evolución de la vida. El escribió:

Hay que reflexionar sobre el extraordinario avance que las máquinas han hecho durante los últimos cien años, teniendo en cuenta la lentitud con la que los reinos animales y vegetales están avanzando. Las máquinas más altamente organizada son criaturas no tanto de ayer, a partir de los últimos cinco minutos, por así decirlo, en comparación con el tiempo pasado. Supongamos por el bien del argumento de que los seres conscientes han existido desde hace algunos veinte millones de años: ver lo las máquinas han hecho en los últimos mil años. ¿No puede ser que el mundo dure veinte millones años más? Si es así, ¿en qué no se convertirán en el fin? ... No podemos calcular sobre cualquier avance correspondiente a los poderes intelectuales o físicos del hombre, que será una compensación en contra de la medida de mayor desarrollo que parece estar reservada para las máquinas.

En 1909, el historiador Henry Adams escribió un ensayo, “La Regla de la Fase Aplicada a la Historia” (del inglés, The Rule of Phase Applied to History),[70] en el que desarrolló una "teoría física de la historia" mediante la aplicación de la ley de los cuadrados inversos a períodos históricos, proponiendo una "Ley de la Aceleración del Pensamiento ". Adams interpreta la historia como un proceso de avanzar hacia un "equilibrio", y especuló que este proceso sería "llevar el pensamiento hasta el límite de sus posibilidades en el año 1921. ¡Es muy posible!", Y agregó que "las consecuencias pueden ser tan sorprendente como el cambio de agua a vapor, del gusano de la mariposa, de la radio a los electrones."[71] El futurólogo John Smart ha llamado a Adams "Primer Teórico de la Tierra sobre la Singularidad". [72]

En 1951, Alan Turing habló de máquinas superando a los seres humanos intelectualmente:[73]

una vez que ha comenzado el método de pensamiento de la máquina, que no tomaría mucho tiempo para superar a nuestros débiles poderes. ... En algún momento, por lo tanto tendríamos que esperar que las máquinas tomen el control, en la forma en que se menciona en Erewhon de Samuel Butler's.

A mediados de los años cincuenta, Stanislaw Ulam tuvo una conversación con John von Neumann en el que von Neumann habló de "nunca acelerar el avance de la tecnología y los cambios en el modo de la vida humana, lo que da la apariencia de que se acerca alguna singularidad esencial en la historia de la raza humana más allá de los asuntos humanos, tal como los conocemos, no podría continuar".[4]

En 1965, I.J. Good escribió primero sobre una "explosión de inteligencia", la cual sugiere que si las máquinas pudieran superar ligeramente el intelecto humano, podrían mejorar sus propios diseños en formas imprevisibles para sus diseñadores, y por lo tanto aumentar recursivamente a sí mismos haciéndolas mucho más inteligentes. La primera de esas mejoras puede ser pequeña, pero a medida que la máquina se vuelve más inteligente, podría dar lugar a una cascada de auto-mejora y un aumento repentino de la superinteligencia (o una singularidad).

En 1983, el matemático y escritor Vernor Vinge popularizó enormemente la noción de una explosión de inteligencia de Good en una serie de escritos, abordando primero el tema de forma impresa en la edición de enero 1983 de la revista Omni. En este artículo de opinión, Vinge parece haber sido el primero en utilizar el término "singularidad" de tal manera que estaba atado específicamente a la creación de máquinas inteligentes, [74] [75] por escrito:

Pronto crearemos inteligencias superiores a la nuestra. Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el espacio-tiempo anudado en el centro de un agujero negro, y el mundo va a pasar mucho más allá de nuestra comprensión. Esta singularidad, creo, que ya persiguen una serie de escritores de ciencia ficción. Esto hace que la extrapolación realista a un futuro interestelar imposible. Para escribir una historia ambientada más de un siglo, por lo tanto, se necesita una guerra nuclear en el medio ... para que el mundo siga siendo inteligible.

En 1984, Samuel R. Delany utiliza "fuga cultural" como un recurso argumental en su novela de ciencia ficción Stars in My Pocket Like Grains of Sand; el término fugitivo de complejidad tecnológica y cultural, en efecto, destruye toda la vida en cualquier mundo en el que se trasluce, un proceso poco comprendido por los personajes de la novela, y en contra de los que buscan una defensa estable. En 1985, Ray Solomonoff introdujo la noción de "punto infinito" [76] en la escala del tiempo de la inteligencia artificial, analizando la magnitud del "shock del futuro", que "podemos esperar de nuestra IA expandida en la comunidad científica", y sobre los efectos sociales. Las estimaciones fueron hechas "para cuando ocurrirían estos hitos, seguidos por algunas sugerencias para la utilización más eficaz del crecimiento tecnológico extremadamente rápido que se espera".

Vinge también popularizó el concepto en las novelas de ciencia ficción como en “Marooned in Realtime” (1986) y en “A Fire Upon the Deep” (1992). El primero se encuentra en un mundo de rápida aceleración de cambio que lleva a la aparición de más y más tecnologías sofisticadas separadas por intervalos de tiempo cada vez más cortos, hasta que se alcanza un punto más allá de la comprensión humana. Este último comienza con una descripción imaginativa de la evolución de una superinteligencia pasando por una aceleración exponencialmente en etapas de desarrollo que terminan en un poder trascendente, casi omnipotente e insondable por simples humanos. Vinge también implica que el desarrollo no puede detenerse en este nivel.

En su libro de 1988 “Mind Children”, el científico de la computación y futurista Hans Moravec generaliza la Ley de Moore para hacer predicciones sobre el futuro de la vida artificial. Moravec esboza una línea de tiempo y un escenario en este sentido [77] [78] en el que los robots van a evolucionar en una nueva serie de especies artificiales, al alrededor del 2030 al 2040 [79] En “Robot: Mere Machine to Transcendent Mind”, publicado en 1998, Moravec considera además las implicaciones de la evolución de la inteligencia del robot, la generalización de la ley de Moore a las tecnologías precediendo el circuito integrado, y especulando sobre una venida "fuego en mente" de superinteligencia de rápida expansión, similar a las ideas de Vinge.

Un artículo de 1993 por Vinge, "The Coming Technological Singularity: How to Survive in the Post-Human Era", [7] se extendió ampliamente en Internet y ayudó a popularizar la idea. [80] Este artículo contiene la declaración citada a menudo, "Dentro de treinta años, vamos a disponer de los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana se terminará." Vinge refina su estimación de las escalas temporales necesarias, y agregó: "Me sorprendería si este evento se produce antes de 2005 o después de 2030."

Vinge predijo cuatro maneras en que la singularidad podría ocurrir:[81]

  1. El desarrollo de equipos que son "despiertos" y poseen inteligencia sobrehumana.
  2. Las grandes redes de ordenadores (y sus usuarios asociados) pueden "despertar" como una entidad sobrehumana inteligente.
  3. Interfaces humano/computadoras pueden llegar a ser tan íntimas que los usuarios razonablemente pueden considerarse sobrehumanamente inteligentes.
  4. La ciencia biológica puede encontrar maneras de mejorar el intelecto humano natural.

Vinge continúa prediciendo que las inteligencias sobrehumanas podrán mejorar sus propias mentes más rápido que sus creadores humanos. "Cuando las unidades de mayor inteligencia humana progresen" Vinge escribe, "que el progreso será mucho más rápido." Él predice que este ciclo de retroalimentación de la inteligencia auto-mejorada hará grandes cantidades de avances tecnológicos dentro de un corto período de tiempo, y afirma que la creación de la inteligencia sobrehumana representa una ruptura en la capacidad de los humanos para modelar su futuro. Su argumento era que los autores no pueden escribir personajes realistas que superan el intelecto humano, como los pensamientos de un intelecto tales serían más allá de la capacidad de los humanos para expresar. Vinge nombra este evento "la Singularidad".

El libro de divulgación científica de Damien BroderickThe Spike” (1997) fue el primero para investigar la singularidad tecnológica en detalle.

En el 2000, Bill Joy, un tecnólogo prominente y un co-fundador de Sun Microsystems, expresó su preocupación por los peligros potenciales de la singularidad. [82]

En 2005, Ray Kurzweil publicó “The singularity in near”, la cual trajo la idea de la singularidad de los medios de comunicación populares, tanto a través de la accesibilidad del libro y a través de una campaña de publicidad que incluía una aparición en “The Daily Show con Jon Stewart”.[83] El libro agita intensa controversia, en parte debido a que las predicciones utópicas de Kurzweil contrastan fuertemente con otras visiones, más oscuras de las posibilidades de la singularidad. Kurzweil, sus teorías, y las controversias que lo rodean fueron objeto del documental de Barry Ptolemy “Transcendent Man”.

En 2007, Eliezer Yudkowsky sugirió que muchas de las variadas definiciones que se han asignado a la "singularidad" son incompatibles entre sí en lugar de apoyarse mutuamente. [17] Por ejemplo, Kurzweil extrapola actuales trayectorias tecnológicas más allá de la llegada de la auto-mejora de la IA o inteligencia sobrehumana, que Yudkowsky argumenta que representa una tensión con lo que I.J. Good propone; discontinúa en la inteligencia y la tesis de Vinge de imprevisibilidad.

En 2008, Robin Hanson (teniendo como "singularidad" para referirse a un fuerte aumento en el exponente del crecimiento económico) enumeró las revoluciones agrícola e industrial como singularidades pasadas. La extrapolación de estos sucesos pasados; Hanson propone que la próxima singularidad económica debería aumentar el crecimiento económico de entre 60 y 250 veces. Una innovación que permitió la sustitución virtual del todo el trabajo humano y que podría desencadenar este evento. [84]

En 2009, Kurzweil y el fundador de X-Prize, Peter Diamandis anunciaron la creación de la Universidad de la Singularidad, cuya misión declarada es "educar, inspirar y empoderar a los líderes para aplicar tecnologías exponenciales para hacer frente a los grandes retos de la humanidad." [85] Financiada por Google, Autodesk, ePlanet Ventures, y un grupo de líderes de la industria de tecnología de la Universidad de la Singularidad, se basa en el Ames Research Center de la NASA en Mountain View, California. La organización sin fines de lucro ejecuta un programa anual de posgrado de diez semanas durante el verano del hemisferio norte que cubre diez tecnologías diferentes y pistas aliadas, y una serie de programas ejecutivos en todo el año.

En 2010, Aubrey de Grey aplica el término "Methuselarity" [86] hasta el punto en el que la tecnología médica mejora tan rápido que la vida humana útil esperada aumenta por más de un año por año. En " Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality" [87] (2010), Robert Geraci ofrece una cuenta del desarrollo de "ciber - teología", inspirada en los estudios de la Singularidad. El 1996 la novela “Holy Fire” por Bruce Sterling explora algunos de esos temas y postula que un Methuselarity se convertirá en una gerontocracia.

En 2011, Kurzweil señala tendencias existentes y concluyó que parecía cada vez más probable que se produzca la singularidad alrededor de 2045. Le dijo a la revista Time: "Nosotros reveriremos el éxito de la ingeniería del cerebro humano a mediados de la década de 2020. A finales de esa década, ordenadores serán capaces de tener una inteligencia a nivel humano". [88]

En la cultura popular[editar]

La novela de 1979 de James P. Hogan “The Two Faces of Tomorrow” es una descripción explícita de lo que ahora se llama la Singularidad. Un sistema de inteligencia artificial resuelve un problema de excavación en la luna de una manera brillante y novedosa, pero casi mata a un equipo de trabajo en el proceso. Al darse cuenta de que los sistemas se están volviendo demasiado sofisticados y complejos de predecir o dirigir, un equipo científico se propone enseñar a una red informática sofisticada cómo pensar más humanamente. La historia documenta el surgimiento de conciencia en el sistema informático, la pérdida de los seres humanos de control y los intentos fallidos de cerrar el experimento en el que el equipo defiende desesperadamente a sí mismo, y la inteligencia del ordenador alcance la madurez.

Al discutir sobre el creciente reconocimiento de la singularidad, Vernor Vinge escribió en 1993 que "fueron los escritores de ciencia ficción quienes sintieron el primer impacto concreto." Además de su propia historia corta "Bookworm, Run!”, Cuyo protagonista es un chimpancé con la inteligencia aumentada por un experimento del gobierno, cita a la novela “Blood Music” de Greg Bear (1983) como un ejemplo de la singularidad en la ficción. Vinge describe sobrevivir a la singularidad en su novela de 1986 “Marooned in Realtime”. Vinge más tarde amplió la noción de la singularidad a una escala galáctica en “A Fire Upon the Deep” (1992), una novela poblada por seres trascendentes, cada producto de una raza diferente y poseedora de agendas distintas y poder abrumador.

En la novela de William Gibson de 1984 “Neuromancer”, inteligencias artificiales capaces de mejorar sus propios programas están estrictamente reguladas por la especial "policía de Turing" para asegurarse de que no superan un cierto nivel de inteligencia, y la trama se centra en los esfuerzos de uno de la IA para eludir su control.

Una IA malévola logra omnipotencia en el cuento de Harlan EllisonI Have No Mouth, and I Must Scream” (1967).

El cómic web “Questionable Content” tiene lugar en mundo post-singularidad con un "amable AI". [89]

Películas populares en la que las computadoras se vuelven inteligentes y tratan de dominar a la raza humana incluyen Colossus: The Forbin Project; la serie Terminator; La serie The Matrix; Transformers; la adaptación cinematográfica muy suelta de Isaac Asimov, Yo, Robot; y, finalmente, Stanley Kubrick y Arthur C. Clarke de 2001: A Space Odyssey. La serie de televisión Dr. Who, Battlestar Galactica, y Star Trek: The Next Generation (que también se adentra en la realidad virtual, la cibernética, formas alternativas de vida, y el posible camino evolutivo de la humanidad) también explora estos temas. De todos ellos, sólo cuenta con un verdadero coloso superinteligente. "The Machine" por el escritor-director Caradog James sigue a dos científicos, ya que crean la primer inteligencia artificial consciente de sí misma en el mundo durante la guerra fría. Toda la trama de Trascendence de Wally Pfister se centra en un escenario de despliegue singular. La película del 2013 de ciencia ficción “Her” sigue una relación romántica de un hombre con una IA muy inteligente, que con el tiempo aprende a mejorarse a sí misma y crea una explosión de inteligencia. La adaptación de Philip K. DickDo Androids Dream of Electric Sheep?” en la película Blade Runner, Ex Machina, y Tron exploran el concepto de la génesis de las máquinas pensantes y su relación con el impacto en la humanidad.

Acelerar el avance se presenta en algunas obras de ciencia ficción, y es un tema central en Accelerando de Charles Stross. Otros autores notables que abordan temas relacionados con la singularidad incluyen Robert Heinlein, Karl Schroeder, Greg Egan, Ken MacLeod, Rudy Rucker, David Brin, Iain M. Banks, Neal Stephenson, de Tony Ballantyne, Bruce Sterling, Dan Simmons, Damien Broderick, Fredric Brown, Jacek Dukaj, Stanislaw Lem, Nagaru Tanigawa, Douglas Adams, Michael Crichton, e Ian McDonald

El documental Transcendent Man, basado en The Singularity Is Near, cubre la búsqueda de Kurzweil para revelar lo que él cree que es el destino de la humanidad. Otro documental, Plug & Pray, se centra en la promesa, los problemas y la ética de la inteligencia artificial y la robótica, con Joseph Weizenbaum y Kurzweil como los temas principales de la película. [90] Un documental de 2012 titulado simplemente The Singularity cubre tanto perspectivas futuristas como contra-futuristas. [90]

En la música, álbum The Singularity (Fase I: Neohumanity) por la banda sueca Scar Symmetry es la primera parte del álbum conceptual de tres partes sobre la base de los acontecimientos de la singularidad.

Veáse también[editar]

Notas[editar]

  1. David Chalmers on Singularity, Intelligence Explosion. April 8th, 2010. Singularity Institute for Artificial Intelligence.
  2. Editor's Blog Why an Intelligence Explosion is Probable, by Richard Loosemore and Ben Goertzel. March 7, 2011; hplusmagazine.
  3. Carvalko, Joseph (2012). The Techno-human Shell-A Jump in the Evolutionary Gap. Sunbury Press. ISBN 978-1620061657. 
  4. a b c Ulam, Stanislaw (May 1958). Tribute to John von Neumann. 64, #3, part 2. Bulletin of the American Mathematical Society. p. 5. 
  5. Vinge, Vernor. «Vernor Vinge on the Singularity». San Diego State University. Consultado el 11 April 2013. 
  6. a b Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005.
  7. a b c d Vinge, Vernor. "The Coming Technological Singularity: How to Survive in the Post-Human Era", originally in Vision-21: Interdisciplinary Science and Engineering in the Era of Cyberspace, G. A. Landis, ed., NASA Publication CP-10129, pp. 11–22, 1993
  8. Armstrong, Stuart. "How We're Predicting AI", from the 2012 Singularity Conference
  9. Good, I. J. "Speculations Concerning the First Ultraintelligent Machine", Advances in Computers, vol. 6, 1965.
  10. Ehrlich, Paul. The Dominant Animal: Human Evolution and the Environment
  11. «Superbrains born of silicon will change everything». businessweek.com. 
  12. Good, I. J., "Speculations Concerning the First Ultraintelligent Machine", Franz L. Alt and Morris Rubinoff, ed., Advances in Computers (Academic Press) 6: 31–88, 1965.
  13. The Human Importance of the Intelligence Explosion
  14. Good, I. J. 1965 "Speculations Concerning the First Ultraintelligent Machine". pp. 31–88 in Advances in Computers, 6, F. L. Alt and M Rubinoff, eds. New York: Academic Press.
  15. a b «What is the Singularity? | Singularity Institute for Artificial Intelligence». Singinst.org. Consultado el 2011-09-09. 
  16. «h+ Magazine | Covering technological, scientific, and cultural trends that are changing human beings in fundamental ways». Hplusmagazine.com. Consultado el 2011-09-09. 
  17. a b c Yudkowsky, Eliezer. The Singularity: Three Major Schools
  18. Sandberg, Anders. An overview of models of technological singularity
  19. «Max More and Ray Kurzweil on the Singularity». KurzweilAI. Consultado el 2011-09-09. 
  20. Marcus, Gary (24 Oct 2013). «Why We Should Think About the Threat of Artificial Intelligence». New Yorker. Consultado el 15 July 2014. 
  21. a b «Tech Luminaries Address Singularity – IEEE Spectrum». Spectrum.ieee.org. Consultado el 2011-09-09. 
  22. «Who's Who In The Singularity – IEEE Spectrum». Spectrum.ieee.org. Consultado el 2011-09-09. 
  23. a b Paul Allen: The Singularity Isn't Near, http://www.technologyreview.com/view/425733/paul-allen-the-singularity-isnt-near, consultado el 2015-04-12 
  24. Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind. Oxford U. Press. p. 61. 
  25. Ray Kurzweil, The Age of Spiritual Machines, Viking, 1999, p. 30 and p. 32
  26. Ray Kurzweil, The Singularity is Near, Penguin Group, 2005
  27. "The World's Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science (journal), 332(6025), 60–65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
  28. Ray Kurzweil, The Singularity is Near, p. 9. Penguin Group, 2005
  29. Kurzweil, Ray (10 October 2008). «The singularity: The last word -[forum]». IEEE 45: 10. doi:10.1109/MSPEC.2008.4635038. Consultado el 2 October 2013. 
  30. Ray Kurzweil, The Singularity is Near, pp. 135–136. Penguin Group, 2005. "So we will be producing about 1026 to 1029 cps of nonbiological computation per year in the early 2030s. This is roughly equal to our estimate for the capacity of all living biological human intelligence ... This state of computation in the early 2030s will not represent the Singularity, however, because it does not yet correspond to a profound expansion of our intelligence. By the mid-2040s, however, that one thousand dollars' worth of computation will be equal to 1026 cps, so the intelligence created per year (at a total cost of about $1012) will be about one billion times more powerful than all human intelligence today. That will indeed represent a profound change, and it is for that reason that I set the date for the Singularity—representing a profound and disruptive transformation in human capability—as 2045."
  31. Kurzweil, Ray (10 October 2008). «The singularity: The last word – [forum]». IEEE 45: 10. doi:10.1109/MSPEC.2008.4635038. Consultado el 2 October 2013. 
  32. (Kurzweil, 2001)
  33. (Kurzweil, 2005)
  34. Zubrin, Robert. 1999, Entering Space: Creating a Spacefaring Civilization
  35. (Joy, 2000)
  36. (Acceleration Studies Foundation, 2007)
  37. «How to make graphene in a kitchen blender». nature.com. 
  38. «Metamaterials offer route to room-temperature superconductivity». physicsworld.com. 
  39. Dreyfus y Dreyfus, 2000, p. xiv: 'The truth is that human intelligence can never be replaced with machine intelligence simply because we are not ourselves "thinking machines" in the sense in which that term is commonly understood.' Hawking (1998): 'Some people say that computers can never show true intelligence whatever that may be. But it seems to me that if very complicated chemical molecules can operate in humans to make them intelligent then equally complicated electronic circuits can also make computers act in an intelligent way. And if they are intelligent they can presumably design computers that have even greater complexity and intelligence.'
  40. Ford, Martin, The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future, Acculant Publishing, 2009, ISBN 978-1-4486-5981-4
  41. Markoff, John (2011-03-04). «Armies of Expensive Lawyers, Replaced by Cheaper Software». The New York Times. 
  42. Adam Gopnik, New Yorker, 2011, http://www.newyorker.com/magazine/2011/04/04/get-smart-adam-gopnik
  43. Joan Slonczewski, Mitochondrial Singularity, 2013, http://ultraphyte.com/2013/03/25/mitochondrial-singularity/
  44. Theodore Modis, Forecasting the Growth of Complexity and Change, Technological Forecasting & Social Change, 69, No 4, 2002
  45. a b Modis, Theodore. The Singularity Myth
  46. a b Huebner, Jonathan (2005) "A Possible Declining Trend for Worldwide Innovation", Technological Forecasting & Social Change, October 2005, pp. 980–6
  47. Smart, John (September 2005), On Huebner Innovation, Acceleration Studies Foundation, retrieved on 2007-08-07
  48. Krazit, Tom. Intel pledges 80 cores in five years, CNET News, 26 September 2006.
  49. See, e.g., Korotayev A., Malkov A., Khaltourina D. Introduction to Social Macrodynamics: Compact Macromodels of the World System Growth. Moscow: URSS Publishers, 2006; Korotayev A. V. A Compact Macromodel of World System Evolution // Journal of World-Systems Research 11/1 (2005): 79–93.
  50. For a detailed mathematical analysis of this issue see A Compact Mathematical Model of the World System Economic and Demographic Growth, 1 CE – 1973 CE.
  51. Interstellar Travel: The Wait Calculation and the Incentive Trap of Progress, JBIS Vol 59, N.7 July 2006
  52. Tainter, Joseph (1988) "The Collapse of Complex Societies" (Cambridge University Press)
  53. Jaron Lanier, Who Owns the Future?, New York: Simon & Schuster, 2013. P. 328.
  54. Anonymous (18 March 2006), «More blades good», The Economist (London) 378 (8469): 85, http://www.economist.com/science/displaystory.cfm?story_id=5624861 
  55. Myers, PZ, Singularly Silly Singularity, http://scienceblogs.com/pharyngula/2009/02/singularly_silly_singularity.php, consultado el 2009-04-13 
  56. a b Yudkowsky, Eliezer (2008), Bostrom, Nick; Cirkovic, Milan, eds., «Artificial Intelligence as a Positive and Negative Factor in Global Risk», Global Catastrophic Risks (Oxford University Press): 303, ISBN 978-0-19-857050-9, Bibcode2008gcr..book..303Y, http://singinst.org/AIRisk.pdf 
  57. «The Uncertain Future». theuncertainfuture.com; a future technology and world-modeling project. 
  58. GLOBAL CATASTROPHIC RISKS SURVEY (2008) Technical Report 2008/1 Published by Future of Humanity Institute, Oxford University. Anders Sandberg and Nick Bostrom
  59. «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards». nickbostrom.com. 
  60. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  61. Mick, Jason. New Navy-funded Report Warns of War Robots Going "Terminator", Blog, dailytech.com, February 17, 2009.
  62. Flatley, Joseph L. Navy report warns of robot uprising, suggests a strong moral compass, engadget.com, 18 February 2009.
  63. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  64. AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  65. Article at Asimovlaws.com, July 2004, accessed 7/27/2009.
  66. (Singularity Institute for Artificial Intelligence, 2004)
  67. «Mission». Singularity Summit Australia - Future of Science and Technology. 
  68. Thornton, Richard (1847), The Expounder of Primitive Christianity, 4, Ann Arbor, Michigan, p. 281, http://books.google.com/?id=ZM_hAAAAMAAJ&dq=%22Primitive%20Expounder%22%20thornton%201847&pg=PA281#v=onepage&q=thinking%20machine&f=false 
  69. Adams, H. (1909) "The rule of phase applied to history." In H. Adams & B. Adams (1920), The Degradation of the Democratic Dogma. New York: Macmillan, 267–311.
  70. Adams (1909), p.309
  71. «A Brief History of Intellectual Discussion of Accelerating Change». Accelerationwatch.com. Consultado el 2013-08-17. 
  72. A M Turing, Intelligent Machinery, A Heretical Theory, 1951, reprinted Philosophia Mathematica (1996) 4(3): 256–260 doi 10.1093/philmat/4.3.256
  73. Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 88
  74. Vinge did not actually use the phrase "technological singularity" in the Omni op-ed, but he did use this phrase in the short story collection Threats and Other Promises from 1988, writing in the introduction to his story "The Whirligig of Time" (p. 72): Barring a worldwide catastrophe, I believe that technology will achieve our wildest dreams, and soon. When we raise our own intelligence and that of our creations, we are no longer in a world of human-sized characters. At that point we have fallen into a technological "black hole," a technological singularity.
  75. Solomonoff, R.J. "The Time Scale of Artificial Intelligence: Reflections on Social Effects", Human Systems Management, Vol 5, pp. 149–153, 1985.
  76. Moravec, Hans (1998), «When will computer hardware match the human brain?», Journal of Evolution and Technology 1, http://www.transhumanist.com/volume1/moravec.htm, consultado el 2006-06-23. 
  77. Moravec, Hans (June 1993). «The Age of Robots». Consultado el 2006-06-23. 
  78. Moravec, Hans (April 2004). «Robot Predictions Evolution». Consultado el 2006-06-23. 
  79. Dooling, Richard. Rapture for the Geeks: When AI Outsmarts IQ (2008), p. 89
  80. 83
  81. Joy, Bill (April 2000), «Why the future doesn’t need us», Wired Magazine (Viking Adult) (8.04), ISBN 0-670-03249-2, http://www.wired.com/wired/archive/8.04/joy.html, consultado el 2007-08-07 
  82. Robin Hanson, «Economics Of The Singularity», IEEE Spectrum Special Report: The Singularity, http://www.spectrum.ieee.org/robotics/robotics-software/economics-of-the-singularity, consultado el 2008-09-11  & Long-Term Growth As A Sequence of Exponential Modes
  83. Singularity University at its official website
  84. de Grey, Aubrey. The singularity and the Methuselarity: similarities and differences
  85. Geraci, Robert M (2010). Apocalyptic AI – Visions of Heaven in Robotics, Artificial Intelligence, and Virtual Reality. Oxford University Press. ISBN 978-0195393026. 
  86. 2045: The Year Man Becomes Immortal, By Lev Grossman Thursday, Feb. 10, 2011 time.com.
  87. Jacques, Jeph. «They've Had AI Since 1996». Questionable Content. Consultado el 9 June 2015. 
  88. Plug & Pray Documentary film (2010) about the promise, problems and ethics of artificial intelligence and robotics
  89. a b «The Singularity: A Documentary by Doug Wolens». Ieet.org. Consultado el 2013-10-22. 

Referencias[editar]

 [cs.AI]. 

 [cs.AI].