Singularidad tecnológica

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En futurología, la singularidad tecnológica (algunas veces llamada simplemente la Singularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia sobrehumana, cambiando nuestro entorno de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la divergencia hacia valores infinitos hace imposible el definir una función.

El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.

Historia[editar]

Las consecuencias de semejante acontecimiento fueron discutidas durante la década de 1960 por I.J. Good, y John von Neumann quien usa el término "singularidad" para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge. La primera aparición del concepto de singularidad fue en el libro La guerra de la paz de 1984 el cual fue escrito por Vernor Vinge.[1] Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI.

Otros, como Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia tipos de computación que van más allá de los simples transistores, sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil supone que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el crecimiento se hace infinito.

El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial por lo menos hasta principios de siglo. Robert Anton Wilson generalizó la ley del crecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que se inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque también parece un nombre irónico y humorístico, porque a medida que pasa el tiempo no son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús. Según Wilson, se inspiró en Alfred Korzybski, el autor de la Semántica General, quien habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomo como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1 después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en el año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128 Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004 por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de solamente 30% anual desde 1999.

Superestructura tecnológica[editar]

El concepto de superestructura abarca al conjunto de los fenómenos jurídico-políticos e ideológicos y las instituciones que los representan. Una Superestructura tecnológica, se alcanza cuando las tecnologías participan de las decisiones del planeta como otra inteligencia más, independiente de si los humanos se conectan físicamente o no a la tecnología.

Las discrepancias surgen a partir de la consideración que se tenga sobre el impacto tecnológico sobre la sociedad. Si creemos que las tecnologías siempre serán una infraestructura controlada por los humano o aceptamos que dado su crecimiento acelerado, su cada vez mayor autonomía y su creciente inteligencia (a lo cual no se le ve límites), podemos aceptar que se convertirán en una superestructura capaz de compartir las decisiones con los humanos.

Por lo que tendremos cuatro enfoques:

  1. Los que creen que la tecnología siempre será controlada por los humanos y el único peligro está en el mal uso que se le dé. Por lo que basta con limitar, prohibir o controlar la utilización de las mismas: desarrollo sostenible.
  2. Los que creen que las tecnologías igualaran y superan a los humanos, surgiendo una superinteligencia. Singularidad tecnológica.
  3. Los que aceptan que las tecnologías podrán ser una superestructura y creen que dado el contexto actual de poder, estas se convertirían en un competidor demasiado peligroso para los humanos, por lo cual hay que hacer todo lo posible para que esto no suceda. Bioconservadurismo.
  4. Los que ven a la tecnología como una aliada que nos pueda llevar a una superinteligencia colectiva donde humanos y tecnologías cooperen por un futuro sostenible: sostenibilidad tecnológica.

Algunos consideran al transhumanismo como viable, en cambio, ven a la singularidad tecnológica como irrealizable ya que supeditan la singularidad al surgimiento de una superinteligencia artificial y no tienen en cuenta el surgimiento de otras superinteligencias capaces de alcanzar la singularidad.

Inteligencia suprahumana[editar]

La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las máquinas ultra inteligentes.

Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad.

El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera vastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres:

  • Creatividad científica
  • Sabiduría en general
  • Desempeño científico

Esta definición deja abierta la forma como se implementa esa superinteligencia

  • Una computadora digital
  • Una red de computadoras
  • Cultivo de tejidos corticales
  • Fusión entre computadoras y humanos

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI.

A diferencia de los investigadores de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Cree que las máquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto aplica para Internet, donde las conexiones entre humanos y máquinas que se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

La idea de priorizar el hard sobre el soft se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndose a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

La mayoría de los métodos propuestos para la creación de una inteligencia suprahumana caen en una de estas dos categorías: en la amplificación de la inteligencia del cerebro humano o en el desarrollo de la inteligencia artificial. Los medios con los que se podría aumentar la inteligencia son numerosos, e incluyen la bioingeniería, la ingeniería genética, los fármacos nootrópicos, los asistentes inteligentes, las interfaces directas cerebro-computadora y transferencia mental. La existencia de múltiples caminos para una explosión de inteligencia hace que una singularidad sea más probable, ya que para no ocurrir debe fallar en todas sus posibilidades.

Caminos hacia la singularidad[editar]

Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por cuatro caminos diferentes en dependencia del tipo de superinteligencia que se alcance:

  1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere.
  2. El desarrollo de redes de computadoras que se comporten como superneuronas de un cerebro distribuido que "despierte" como ente inteligente.
  3. El desarrollo de elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente.
  4. Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano de inteligencia.

Posteriormente Alejandro Madruga las clasifica, en ese mismo orden, como: superinteligencia artificial, superinteligencia colectiva, superinteligencia híbrida y superinteligencia biológica

Superinteligencia artificial[editar]

Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Estamos hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos) y puede ser descargada del cerebro y copiada en un soporte digital.

Y tiene como tesis central que esa superinteligencia una vez que se iguale a la humana crecerá de forma autónoma siguiendo su propio progreso tecnológico, con o sin los humanos, idea preferida de Hans Moravec, quien ve en la evolución de las máquinas la continuidad de la humana. Otros sueñan con que esa superinteligencia artificial, después, sea capaz de reprogramar la mente humana y con ello alcanzar la ansiada inmortalidad.

Superinteligencia colectiva[editar]

Surgimiento de una superinteligencia colectiva donde estén conectados en redes los humanos y las máquinas, siguiendo las ideas de Pierre Lévy de una inteligencia colectiva, en la que Internet esta jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se está formando desde ahora en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que esta teniendo la Web 2.0 y la gran cantidad de conocimiento que se esta compartiendo en las Wikis, redes sociales y blogs y que se podrían ir autoorganizando por medio de la Web semántica. Lo cual nos lleva a una superestructura tecnológica donde humanos y máquinas cooperan entre si.

La superinteligencia colectiva lleva al surgimiento de forma natural de una inteligencia superior a la humana, producto de la colaboración entre humanos y tecnología y debe estar enfocada hacia una sostenibilidad tecnológica consistente en la integración armónica de las tecnologías, como superestructura, a las necesidades verdaderamente humanas.

Superinteligencia híbrida[editar]

Superinteligencia híbrida, Interconexión entre humanos y computadoras, tales como, prótesis, implantes de chip, etc. Lo cual nos lleva al cíborg, donde se fusionan los humanos con las máquinas. La idea de una transhumanidad que transcienda a la condición humana y con ello superar todos los límites de la especie humana y dar surgimiento a una nueva especie posthumana. Esto nos arrastra a una singularidad fuerte.

La idea de la fusión responde al sueño de los transhumanistas de lograr un humano mejorado. El transhumanismo es un movimiento tecnológico, iniciado por Nick Bostrom, que afirma la posibilidad y el deseo de mejorar, en modo fundamental, la condición humana a través de la razón aplicada, especialmente por medio del desarrollo y la puesta a disposición de tecnologías para eliminar el envejecimiento y potenciar grandemente las capacidades humanas, intelectuales, físicas y psicológicas.

Superinteligencia biológica[editar]

Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, inteligencia artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biología, ya que cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado (humano+) por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la híbrida.

Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a ser inteligentes (en el sentido de la prueba de Turing),[2] el camino biológico para llegar a la singularidad tecnológica no parece tener límite alguno.

Riesgos[editar]

Para muchos la singularidad debe acontecer antes del 2030. El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.

Una vez llegado al punto en que se cree una inteligencia superior a la humana, se entraría en una etapa post humana que probablemente conduzca a la extinción de la humanidad o a su subordinación a esos nuevos entes inteligentes.

Los defensores de la singularidad están conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales:

  • Inteligencia artificial mal programada.
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Uso generalizado de las prótesis (convirtiéndose en un robot)
  • Tecnologías autónomas que se escapan de las manos (máquinas que se auto construyen a si mismas)

En cambio, los defensores de la singularidad asumen que es necesario tomar el control de la evolución humana y acelerar el progreso tecnológico. Proponen la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes o convergentes (Nanotecnología, Biotecnología, Infotecnología y Cognotecnología - NBIC) puedan alcanzar la posthumanidad.

El siglo XXI enfrenta el dilema de si controla el progreso tecnológico y lo mantiene como una infraestructura subordinada a los humanos o estimula el desarrollo autónomo del progreso tecnológico y con él los riesgos que este representa.

Véase también[editar]

Referencias[editar]

  1. «Singularidad tecnológica». Consultado el 26-05-2014.
  2. Roger Penrose. La nueva mente del emperador. Barcelona: Grijalbo Mondadori. 1991

Referencias blibliográficas[editar]

Enlaces externos[editar]