Singularidad tecnológica

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En futurología, la Singularidad Tecnológica (algunas veces llamada simplemente Singularidad) es un posible acontecimiento futuro en el que, según se predice, el progreso tecnológico y el cambio social se acelerarán con el desarrollo de una inteligencia sobrehumana de tal manera que ningún ser humano anterior a dicho acontecimiento podría comprenderlo o predecirlo. Se llama así por analogía con la singularidad espacio-temporal observada en los agujeros negros, donde existe un punto en el cual las reglas de la física dejan de ser válidas y la divergencia hacia valores infinitos hace imposible definir una función.

El tiempo que resta antes de la Singularidad se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.

Historia[editar]

Las consecuencias de semejante acontecimiento fueron discutidas por I. J. Good y John von Neumann, quien usa el término «singularidad» para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los años 1980 cuando el concepto es popularizado por Vernor Vinge en su libro La guerra de la paz (1984).[1] En la actualidad se debate sobre si la Singularidad ocurrirá o no, pero los futuristas estiman que el hecho podría suceder aproximadamente durante la tercera década del siglo XXI.

Otros, como Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia modelos de computación que van más allá de los simples transistores y sugieren así un patrón exponencial de progreso tecnológico [2] . Sin embargo, Kurzweil supone que el mismo patrón de crecimiento cambia y que la aceleración aumenta hasta adquirir un patrón de crecimiento hiperbólico, lo cual permite trazar una analogía con el espacio hiperbólico de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el siglo XXI, el cual conduce a la Singularidad, un punto en el cual el crecimiento se hace infinito.

Para algunos, el crecimiento hiperbólico es el patrón que sigue el aumento de la información. De hecho, es el ritmo en que creció la población mundial por lo menos hasta principios de siglo. Robert Anton Wilson generalizó la ley del crecimiento de la información con el nombre del fenómeno del Jesús saltador, que se inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque también parece un nombre irónico y humorístico, ya que, a medida que pasa el tiempo, no son pocos los que siguen pensando en el fin del mundo y en la segunda venida de Cristo. Wilson afirma que se inspiró en Alfred Korzybski, el padre de la semántica general, quien habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomó como base de todo el conocimiento acumulado y disponible a la humanidad el año 1 d. C., al que Wilson llama «el primer Jesús». La primera duplicación se habría dado durante el apogeo del Renacimiento, cuando se tendrían dos Jesuses; la segunda, en 1750, cuando habría cuatro Jesuses; y las siguientes, en los años 1900, 1950, 1960, 1967 y 1973 (para un total de 128 Jesuses). Para el 2000 se calculaba que la información se duplicaba dos veces por año. Sin embargo, de acuerdo con otro estudio realizado por la Universidad de Berkeley en el 2004 por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP y EMC, la información que se genera y registra en el mundo aumenta a un ritmo de solamente el 30 % anual desde 1999.

Superestructura tecnológica[editar]

Una superestructura tecnológica es un estado tal en el que las tecnologías participan de las decisiones del planeta como una inteligencia más, independientemente de si las personas se conectan físicamente a la tecnología o no. El concepto de superestructura abarca tanto los fenómenos jurídico-políticos e ideológicos relacionados con la tecnología como las instituciones que los representan.

Las discrepancias surgen a partir de la consideración que se tenga sobre el impacto de la tecnología en la sociedad. La disyuntiva parece estar entre creer que las tecnologías siempre serán una infraestructura controlada por el ser humano o aceptar que, dado su crecimiento acelerado, su autonomía cada vez mayor y su inteligencia creciente (a los cuales no se les ven límites), se convertirán en una superestructura capaz de compartir las decisiones con las personas.

Es así como surgen cuatro posturas distintas:

  1. Quienes creen que la tecnología siempre será controlada por los seres humanos y que el único peligro está en el mal uso que se le dé, de modo que solo bastaría con limitar, prohibir o controlar su utilización (desarrollo sostenible).
  2. Quienes creen que las tecnologías igualarán y superarán al ser humano y precipitarán el surgimiento de una superinteligencia (singularidad tecnológica).
  3. Quienes aceptan que las tecnologías constituirán una superestructura y creen que, dado el contexto actual del poder, estas se convertirían en un competidor demasiado peligroso para la humanidad, por lo cual hay que hacer todo lo posible por que esto no suceda (bioconservadurismo).
  4. Quienes ven a la tecnología como una aliada que puede llevar a la humanidad a una superinteligencia colectiva en la cual seres humanos y tecnologías cooperarán por un futuro sostenible [3] (sostenibilidad tecnológica).

Algunas personas consideran viable el transhumanismo, pero ven la singularidad tecnológica como un acontecimiento irrealizable, ya que supeditan este al surgimiento de una superinteligencia artificial y no tienen en cuenta el surgimiento de otras superinteligencias capaces de alcanzar ese estado.

Inteligencia suprahumana[editar]

La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las máquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un gráfico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las máquinas ultra inteligentes.

Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de éste y está convencido de que esa inteligencia superior será la que impulsará el progreso, el cual será mucho más rápido e incluso superará a la actual evolución natural. Es así que afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad.

El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera vastamente superior en comparación con los mejores cerebros humanos en prácticamente todos los aspectos y en especial estos tres:

  • Creatividad científica
  • Sabiduría en general
  • Desempeño científico

Esta definición deja abierta la forma como se implementa esa superinteligencia

  • Una computadora digital
  • Una red de computadoras
  • Cultivo de tejidos corticales
  • Fusión entre computadoras y humanos

En general los teóricos del la singularidad definen la superinteligencia: como cualquier forma de inteligencia artificial basada en la capacidad del sistema de autoaprendizaje. Estas redes neuronales artificiales serían capaces de superar a los mejores cerebros humanos en prácticamente cualquier disciplina, incluyendo creatividad científica; sentido común, y habilidades sociales. Muchos científicos han presentado el argumento de que tanto el hardware necesario como el software requerido para la superinteligencia serán desarrollados en las primeras décadas del siglo XXI.

A diferencia de los investigadores de la Inteligencia Artificial, que pensaban que la mente podía ser representada por medio de algoritmos y que esta podía ser programada totalmente en una computadora. Creen que las máquinas dado el progreso acelerado de la potencia de su hardware despertarán en algún momento como una inteligencia, esto nos lleva al concepto de emergencia basado en que las máquinas serán cada vez más veloces, tendrán más memoria y que esto emergerá en una nueva inteligencia. El mismo concepto aplica para Internet, donde las conexiones entre humanos y máquinas que se comportaran como neuronas dentro de una gran red, por lo que en cualquier momento de ellas emergerá una inteligencia (cerebro global).

La idea de priorizar el hardware sobre el software se apoya sobre los siguientes conceptos:

  • La evolución de las máquinas es más rápida que la de los humanos, mientras las máquinas sufren un crecimiento acelerado, la evolución natural de los humanos está prácticamente detenida.
  • La aceleración de las tecnologías se seguirá incrementando hasta llegar a un punto que escapa a las capacidades de los humanos (singularidad tecnológica).
  • Las máquinas se irán auto construyéndo a sí misma, cada vez más perfeccionadas, más veloces, con más memorias, dotadas de mejores algoritmos; podrán llegar a convertirse en máquinas superinteligentes que superen a los humanos.
  • La inteligencia de las máquinas dada la complejidad que irán adquiriendo y las conexiones internas (circuitos) o externas (redes) podrá despertar como una entidad auto consciente.

La mayoría de los métodos propuestos para la creación de una inteligencia suprahumana caen en una de estas dos categorías: en la amplificación de la inteligencia del cerebro humano o en el desarrollo de la inteligencia artificial. Los medios con los que se podría aumentar la inteligencia son numerosos, e incluyen la bioingeniería, la ingeniería genética, los fármacos nootrópicos, los asistentes inteligentes, las interfaces directas cerebro-computadora y transferencia mental. La existencia de múltiples caminos para una explosión de inteligencia hace que una singularidad sea más probable, ya que para no ocurrir debe fallar en todas sus posibilidades.

Caminos hacia la singularidad[editar]

Para el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede lograr por cuatro caminos diferentes en dependencia del tipo de superinteligencia que se alcance:

  1. El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere.
  2. El desarrollo de redes de computadoras que se comporten como superneuronas de un cerebro distribuido que "despierte" como ente inteligente.
  3. El desarrollo de elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente.
  4. Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano de inteligencia.

Posteriormente Alejandro Madruga [4] las clasifica, en ese mismo orden, como: superinteligencia artificial, superinteligencia colectiva, superinteligencia híbrida y superinteligencia biológica

Superinteligencia artificial[editar]

Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Se está hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable (se consideran a los estados mentales como algoritmos altamente complejos) y puede ser descargada del cerebro y copiada en un soporte digital.

Lo cual tiene como tesis central que esa superinteligencia una vez que se iguale a la humana crecerá de forma autónoma siguiendo su propio progreso tecnológico, con o sin los humanos, idea preferida de Hans Moravec, quien ve en la evolución de las máquinas la continuidad de la humana. Otros sueñan con que esa superinteligencia artificial, después, sea capaz de reprogramar la mente humana y con ello alcanzar la ansiada inmortalidad.

Superinteligencia colectiva[editar]

Surgimiento de una superinteligencia colectiva donde estén conectados en redes los humanos y las máquinas, siguiendo las ideas de Pierre Lévy de una inteligencia colectiva, en la que Internet está jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se está formando desde ahora en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto de la Web 2.0 y la gran cantidad de conocimiento que se está compartiendo en las Wikis, redes sociales y blogs y que se podrían ir autoorganizando por medio de la Web semántica. Lo cual nos lleva a una superestructura tecnológica donde humanos y máquinas cooperan entre sí.

La superinteligencia colectiva lleva al surgimiento de forma natural de una inteligencia superior a la humana, producto de la colaboración entre humanos y tecnología y debe estar enfocada hacia una sostenibilidad tecnológica consistente en la integración armónica de las tecnologías, como superestructura, a las necesidades verdaderamente humanas.

Superinteligencia híbrida[editar]

Superinteligencia híbrida, Interconexión entre humanos y computadoras, tales como, prótesis, implantes de chip, etc. Lo cual nos lleva al cíborg, donde se fusionan los humanos con las máquinas. La idea de una transhumanidad que transcienda a la condición humana y con ello superar todos los límites de la especie humana y dar surgimiento a una nueva especie posthumana. Esto nos arrastra a una singularidad fuerte.

La idea de la fusión responde al sueño de los transhumanistas de lograr un humano mejorado. El transhumanismo es un movimiento tecnológico, iniciado por Nick Bostrom, que afirma la posibilidad y el deseo de mejorar, en modo fundamental, la condición humana a través de la razón aplicada, especialmente por medio del desarrollo y la puesta a disposición de tecnologías para eliminar el envejecimiento y potenciar grandemente las capacidades humanas, intelectuales, físicas y psicológicas.

Superinteligencia biológica[editar]

Mientras las tres anteriores están relacionadas con las tecnologías conexas, aquellas que no se fundamentan en las ciencias de la vida, pero que tienen una incidencia importante sobre esta (Nanotecnología, Robótica, inteligencia artificial, etc.); en cambio, esta última, surge producto del desarrollo de la biología, ya que cifra sus esperanzas en la ingeniería genética. Aquí se manejan conceptos, muy debatidos en la actualidad, como el de eugenesia negativa o positiva o el de la clonación. En general se aspira al humano mejorado (humano+) por medio de la bioingeniería, la misma, irá conduciendo a la humanidad a una fusión progresiva y menos radical que la híbrida.

Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a ser inteligentes (en el sentido de la prueba de Turing),[5] el camino biológico para llegar a la singularidad tecnológica no parece tener límite alguno.

Riesgos[editar]

Para muchos la singularidad debe acontecer antes del 2030. El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño, mejoras de diseño y fabricación de nuevos inventos.

Una vez llegado al punto en que se cree una inteligencia superior a la humana, se entraría en una etapa post humana que probablemente conduzca a la extinción de la humanidad o a su subordinación a esos nuevos entes inteligentes.

Los defensores de la singularidad están conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales:

  • Inteligencia artificial mal programada.
  • Mal uso de la nanotecnología.
  • Mala utilización de la biotecnología.
  • Uso generalizado de las prótesis (convirtiéndose en un robot)
  • Tecnologías autónomas que se escapan de las manos (máquinas que se auto construyen a si mismas)

En cambio, los defensores de la singularidad asumen que es necesario tomar el control de la evolución humana y acelerar el progreso tecnológico. Proponen la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes o convergentes (Nanotecnología, Biotecnología, Infotecnología y Cognotecnología - NBIC) puedan alcanzar la posthumanidad.

El siglo XXI enfrenta el dilema de si controla el progreso tecnológico y lo mantiene como una infraestructura subordinada a los humanos o estimula el desarrollo autónomo del progreso tecnológico y con él los riesgos que este representa.

Véase también[editar]

Referencias[editar]

Referencias blibliográficas[editar]

Enlaces externos[editar]