Usuario:Rociobonforte/Taller

De Wikipedia, la enciclopedia libre

La singularidad tecnológica es el advenimiento hipotético de inteligencia artificial general (también conocida como "IA fuerte", del inglés strong AI). La misma implica que un equipo de cómputo, red informática o hasta un robot podrían ser capaces de auto-mejorarse recursivamente (rediseño de sí mismo).

La singularidad tecnológica ocasionará, según Albert Cortina y Miquel-Ángel Serra, cambios sociales inimaginables, imposibles de comprender o de predecir por cualquier humano. En esa fase de la evolución se producirá la fusión entre tecnología e inteligencia humana en donde la tecnología dominará los métodos de la biología hasta dar lugar a una era en que se impondrá la inteligencia no biológica de los posthumanos, que se expandirá por el universo. [1]

Origen[editar]

El primer uso del término «singularidad» fue en 1958 por el matemático y físico húngaro John von Neumann, para describir el progreso tecnológico durante la década de 1950. Pero no es hasta 1980 en donde el termino se populariza por el matemático, informático y autor de ciencia ficción Vernor Vinge, quien sostiene que la inteligencia artificial, la mejora biológica humana, o interfaces cerebro-ordenador podrían ser las posibles causas de la singularidad.​ 

Estos autores y como muchísimos más se dedicaron a predecir cuándo esta singularidad ocurrirá. Por un lado el científico e inventor Raymond Kurzweil en su libro La singularidad esta cerca, nos advierte que este fenómeno ocurrirá alrededor del año 2045 y predice un ascenso gradual a la singularidad. [2]​ Mientras que Vinge la predice 15 años menos, en el 2030, una auto-mejora rápida de la inteligencia sobrehumana.

Manifestaciones[editar]

Muchos autores definieron que la singularidad tecnológica se puede llegar a manifestar de diferentes maneras: a partir de la inteligencia artificial, la superinteligencia o la singularidad de la No-IA.

Inteligencia Artificial[editar]

La IA fuerte podría llegar a provocar, tal como lo expresa Irving John Good, una “explosión de inteligencia”. [3]​ Mediante el creciente poder de las computadoras y otras tecnologías, podría ser posible construir una máquina más inteligente que la humanidad. [4]​​ Lo siguiente consiste en una inteligencia sobrehumana –inventada ya sea a través de la amplificación de la inteligencia humana o a través de la inteligencia artificial– capaz de aportar una mayor resolución de problemas y habilidades inventivas, y de diseñar una máquina mejor, más inteligente (auto-mejora recursiva).

Superinteligencia[editar]

Muchos de los escritores que hablan sobre la singularidad, como Vernor Vinge y Ray Kurzweil, definen la singularidad como la creación tecnológica de superinteligencia, y que sin ella los cambios no calificarían como una verdadera singularidad. Aunque argumentan que es difícil o hasta imposible para los seres humanos de hoy en día predecir cómo será la vida de los seres humanos en un mundo post-singularidad. [5][6][7]

Singularidad de la No-IA[editar]

Otros escritores, utilizan "la singularidad" de una manera más amplia para referirse a los cambios radicales en nuestra sociedad, provocados por las nuevas tecnologías como la nanotecnología molecular[8]​​ [9][10]​​ Muchos autores también vinculan la singularidad de las observaciones del crecimiento exponencial de diversas tecnologías (con la Ley de Moore, que es el ejemplo más prominente).

Verosimilitud[editar]

Muchos creen que este acontecimiento no tendrá lugar como otros creen que sí. El investigador Gary Marcus, afirma que «prácticamente todo el mundo en el campo de la IA cree» que las máquinas algún día superarán a los humanos y «en cierto nivel, la única diferencia real entre los entusiastas y los escépticos es un marco de tiempo»[11]​ Pero por otro lado, gran cantidad de tecnólogos y académicos afirman que la singularidad tecnológica esta en pausa, incluyendo a Paul AllenJeff HawkinsJohn HollandJaron Lanier, y Gordon Moore. [12][13][14]

Causa probable: el crecimiento exponencial[editar]

El crecimiento exponencial de la tecnología informática sugerido por la Ley de Moore es comúnmente citado como una razón para esperar una singularidad en un futuro relativamente próximo. El informático y futurista Hans Moravec propuso en un libro de 1998 [15]​ que la curva de crecimiento exponencial podría extenderse de nuevo a través de tecnologías de computación previas al circuito integrado. El futurista Ray Kurzweil postula una ley de rendimientos acelerados, en el que la velocidad del cambio tecnológico aumenta de manera exponencial [16]​, la generalización de la Ley de Moore al igual que en la propuesta de Moravec. A esto se le suma la tecnología de materiales aplicada a la nanotecnología, la tecnología médica y otras. [2]

Cambio acelerado[editar]

El análisis de Kurzweil a partir de la ley de rendimientos acelerados, identifica que cada vez que la tecnología se acerca a una barrera, las nuevas tecnologías la superarán. Los cambios de paradigmas se volverán cada vez más comunes, lo que lleva al "cambio tecnológico tan rápido y profundo que representa una ruptura en el tejido de la historia humana".  Una singularidad tecnológica llevaría a un rápido desarrollo de una civilización Kardashev Tipo I, la cual ha logrado el dominio de los recursos de su planeta de origen. [17]

Oposición[editar]

Son varios los críticos que están completamente en desacuerdo sobre el acontecimiento singularidad, afirmando que ningún equipo o máquina podrían alcanzar la inteligencia humana. [18]​​

El científico canadiense, Steven Pinker declaró en 2008, que no hay ninguna razón para creer en la singularidad: " [...] el hecho de que se puede visualizar un futuro en su imaginación no es evidencia de que es probable o incluso posible. Mira las ciudades abovedadas, desplazamientos jet-pack, ciudades bajo el agua, edificios de millas de alto, y los automóviles de propulsión nuclear – todas eran fantasías futuristas cuando yo era un niño que nunca llegaron. La pura potencia de procesamiento no es un polvo mágico que resuelve mágicamente todos tus problemas [...]". [12]​​

Entorno a la economía[editar]

Por otro lado, el investigador futurista Martin Ford postula que antes de la singularidad podrían ocurrir ciertos trabajos rutinarios en donde la economía seria automatizada, lo que provocaría un desempleo masivo y la caída de la demanda del consumidor, por lo que esto destruiría el incentivo para invertir en las tecnologías necesarias para que se lleve a cabo la singularidad. [19]​​

El escritor estadounidense Jaron Lanier también habla un poco sobre la economía y se opone completamente a la singularidad. Postula que la tecnología se está creando a sí misma y no es un proceso en el anonimato. Afirma que la única razón para creer en la acción humana sobre la tecnología es que pueda tener un economía en donde las personas ganen su propio camino e inventen sus propias vidas; si se estructura una sociedad sin hacer énfasis en la acción humana individual, seria lo mismo que negar a las personas influyentes la dignidad y la autodeterminación. "Singularidad como una celebración de mal gusto y mala política". [20]​​

William Nordhaus, economista estadounidense, argumentó que hasta 1940 los equipos siguieron el crecimiento lento de la economía industrial tradicional, rechazando así las extrapolaciones de la ley de Moore a las computadoras del siglo 19. [21]​ Andrew Kennedy por otra parte, declaró que aunque el crecimiento global a largo plazo es inevitable e incorpora subidas y bajadas, y señaló que " Las nuevas tecnologías siguen las leyes del uso de la energía y la información de difusión conocidas y están obligados a conectarse con los que existen. Notables descubrimientos teóricos, si terminan siendo utilizados totalmente, lograrían desempeñar su papel en el mantenimiento de la tasa de crecimiento: y que no hacen de su curva trazada redundante". [22]​​

Retroceso tecnológico[editar]

El geógrafo Jared Diamond habla de un retroceso tecnológico que imposibilitará la singularidad. Sostiene que cuando las culturas auto-limitantes superen la capacidad de carga sostenible de su entorno, y el consumo de los recursos estratégicos (madera, suelos o agua) crearán una retroalimentación positiva deletérea repetitiva que conduciría finalmente al colapso social. [23]​ A esta idea de retroceso tecnológico se le suman los físicos Theodore Modis [24][25]​y Jonathan Huebne [26]​. Ellos admiten que la invocación tecnológica aumenta pero esta en descenso por la subida de las frecuencias de reloj de las computadoras está retrasándose, aunque la predicción de Moore, que la densidad del circuito sigue manteniéndose con un aumento exponencial. Mientras que Kurzweil utiliza los recursos y trabajos de Modis, alrededor de la aceleración del cambio, Modis se distanció de la tesis de Kurzweil de una "singularidad tecnológica", alegando que carece de rigor científico. [25]​​

Finalmente, el empresario estadounidense, Paul Allen argumenta lo contrario sobre los retornos acelerados, afirmando que la ciencia más avanzada hacia la comprensión hace que la inteligencia se haga más difícil para hacer progresos adicionales. El crecimiento de la complejidad con el tiempo llega a ser autolimitada, y conduce a un generalizado "colapso general de sistemas". [14]

En contra de Kurzweil[editar]

Además de las críticas generales del concepto de singularidad, varios críticos han planteado cuestiones en contra de lo que manifestaba como singularidad el científico Raymond Kurzweil. Un claro ejemplo de esto, fue el biólogo PZ Myers quien señala que muchos de los primeros "eventos" evolutivos fueron detenidos arbitrariamente. Por el contrario, Kurzweil ha refutado a partir de trazos de eventos evolutivos de 15 fuentes neutrales, y demostrando que encajan en una línea recta en un gráfico log-log. The Economist se burló de la idea con un gráfico extrapolando el número de hojas en una máquina de afeitar, la cual ha aumentado en los últimos años entre uno hasta cinco, y que aumentará cada vez más rápido hasta el infinito. [27]​​

Otras singularidades[editar]

Por otro lado, varios autores proponen otras "singularidades" a través del análisis de las tendencias de la población mundial, el producto interno bruto mundial, entre otros índices. Andrey Korotayev y otros argumentan que las curvas hiperbólicas de crecimiento histórico se le pueden atribuir a los ciclos de retroalimentación que dejaron de afectar a las tendencias mundiales en la década de 1970, y que el crecimiento hiperbólico no debe esperarse en el futuro. [28]

El microbiologo Joan Slonczewski y el escritor Adam Gopnik argumentan que la Singularidad es un proceso gradual; que como seres humanos gradualmente externalizamos nuestra capacidad a las máquinas, [29]​ que redefinimos esas habilidades como inhumanas, sin darse cuenta de lo poco que queda. Este concepto se denomina Singularidad Mitocondrial[30]​ La idea se refiere a las mitocondrias, los orgánulos que se desarrollan a partir de bacterias autónomas, pero ahora controlan nuestras células vivas. En el futuro, el "ser humano" dentro del exoesqueleto de la máquina podría existir sólo para encenderla.

Riesgos[editar]

Este acontecimiento para alguno autores y críticos trae muchísimos riesgos para la sociedad.

Incertidumbre y riesgos[editar]

El término "singularidad tecnológica" refleja la idea de que tal cambio puede ocurrir de repente, y que es difícil predecir cómo el nuevo mundo resultante operaría. ​​ No está claro si una explosión de inteligencia de este tipo sería beneficiosa o perjudicial, o incluso una amenaza existencial.​​ Como el tema no ha sido tratado por los investigadores de inteligencia artificial general, a pesar de que el tema de la inteligencia artificial amigable sea investigada por el Instituto Futuro de la Humanidad (Future of Humanity Institute) y el Instituto para la Singularidad Inteligencia artificial (Singularity Institute for Artificial Intelligence), que ahora es el Instituto de Investigación en Inteligencia de la Máquina (Machine Intelligence Research Institute).

Notas[editar]

  1. Cortina y Serra, Albert y Miquel-Àngel (2015). «Capítulo 1 de ¿Humanos o posthumanos? Singularidad tecnológica y mejoramiento humano.». ¿Humanos o Posthumanos?, singularidad tecnológica y mejoramiento humano. 
  2. a b Kurzweil, Ray (2005). La singularidad está cerca, cuando los humanos trascendemos la biología. Lola Books. 
  3. Good, I.J (1950). «Advances in Computers, vol. 6.». Speculations Concerning the First Ultraintelligent Machine. 
  4. Shajahan, S (2007). Management Information Systems. New Age International. 
  5. Kurzweil, Ray (2005). The Singularity is Near. Penguin Group. p. 135–136. 
  6. Vinge, Vernor (1993). «The Coming Technological Singularity: How to Survive in the Post-Human Era». VISION-21 Symposium. Consultado el 10 de octubre de 2017. 
  7. «What is the Singularity? | Singularity Institute for Artificial Intelligence». 9 de septiembre de 2011. 
  8. «h+ Magazine | Covering technological, scientific, and cultural trends that are changing human beings in fundamental ways». Hplusmagazine.com. Consultado el 9 de septiembre de 2011.
  9. Yudkowsky, EliezerThe Singularity: Three Major Schools
  10. Sandberg, AndersAn overview of models of technological singularity
  11. Gary, Marcus. «Why We Should Think About the Threat of Artificial Intelligence». 24 de octubre de 2003. Consultado el 10 de octubre de 2017. 
  12. a b «Tech Luminaries Address Singularity – IEEE Spectrum». 1 de junio de 2008. Consultado el 10 de octubre de 2017. 
  13. Wallich, Paul. «Who’s Who In The Singularity». 1 de junio de 2008. Consultado el 10 de octubre de 2017. 
  14. a b Allen, Paul. «The Singularity Isn't Near». 12 de octubre de 2011. Consultado el 10 de octubre de 2017. 
  15. Moravec, Hans (1999). Robot: Mere Machine to Transcendent Mind. Oxford U. Press. p. 61. 
  16. Kurzwei, Ray (1999). The Age of Spiritual Machines. Viking. p. 30 y 32. 
  17. Zubrin, Robert (1999). Entering Space: Creating a Spacefaring Civilization. ISBN 978-1585420360. 
  18.  Dreyfus y Dreyfus, 2000, p. xiv: 'The truth is that human intelligence can never be replaced with machine intelligence simply because we are not ourselves "thinking machines" in the sense in which that term is commonly understood.'
  19. Ford, Martin (2009). The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future. Acculant. ISBN 978-1-4486-5981-4. 
  20. Lanier, Jaron (2013). Who Owns the Future?. Simon & Schuster. p. 328. 
  21. Nordhaus, William. «The Progress of Computing». 30 de agosto de 2011. Consultado el 10 de octubre de 2017. 
  22. Kennedy, Andrew. «Interstellar Travel: The Wait Calculation and the Incentive Trap of Progress». julio de 2006. Consultado el 10 de octubre de 2017. 
  23. Diamond, Jared (2005). Collapse: How Societies Choose to Fail or Succeed (en ingles). Viking. ISBN 0-14-303655-6. 
  24. Modis, Theodore. «Technological Forecasting and Social Change». mayo de 2002. Consultado el 10 de octubre de 2017. 
  25. a b Modis, Theodore. «The Singularity Myth». 2006. Consultado el 10 de octubre de 2017. 
  26. Huebne ​, Jonathan. «A possible declining trend for worldwide innovation». 18 de enero de 2005. Consultado el 10 de octubre de 2017. 
  27. «A Moore's law for razor blades?». 16 de marzo de 2016. Consultado el 10 de octubre de 2017. 
  28. Korotayev, Malkov, Khaltourina, Andrey, Artemy, Daria (2006). Introduction to Social Macrodynamics: Compact Macromodels of the World System Growth. (en ingles). Moscow. 
  29. Gopnik, Adam Gopnik. «Get Smart». 4 de abril de 2011. Consultado el 10 de octubre de 2017. 
  30. Slonczewski, Joan. «Mitochondrial Singularity». 25 de marzo de 2013. Consultado el 10 de octubre de 2017.