Superinteligencia: caminos, peligros, estrategias

De Wikipedia, la enciclopedia libre
Superintelligence:
Paths, Dangers, Strategies
de Nick Bostrom
Editor(es) Oxford University Press
Género Ensayo
Subgénero Filosofía, Divulgación científica
Tema(s) Inteligencia artificial
Edición original en inglés
Título original Superintelligence Ver y modificar los datos en Wikidata
País Reino Unido
Fecha de publicación 3 de julio de 2014 (UK)
1 de septiembre de 2014 (US)
Edición traducida al español
Título Superinteligencia: caminos, peligros, estrategias
Editorial Teell
País España
Fecha de publicación 2016
Páginas 331
Serie
Superintelligence:
Paths, Dangers, Strategies

Superinteligencia: caminos, peligros, estrategias es un libro de 2014 del filósofo sueco Nick Bostrom de la Universidad de Oxford. Argumenta que si los cerebros de las máquinas superaran a los cerebros humanos en inteligencia general, entonces esta nueva superinteligencia podría reemplazar a los humanos como la forma de vida dominante en la Tierra. Las máquinas suficientemente inteligentes podrían mejorar sus propias capacidades más rápido que los científicos informáticos humanos,[2]​ y el resultado podría ser una catástrofe existencial para los humanos.[3]

Resumen[editar]

Se desconoce si la inteligencia artificial llegará a un nivel equiparable al humano en cuestión de años, a finales de este siglo, o no hasta siglos futuros. Independientemente de la escala de tiempo inicial, una vez que se desarrolle la inteligencia artificial, lo más probable es que un sistema "superinteligente" que "supere en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés", progrese de forma sorprendentemente rápida. Tal superinteligencia sería muy difícil de controlar o limitar.

Si bien los objetivos finales de las superinteligencias pueden variar mucho, una superinteligencia funcional generará espontáneamente, como subobjetivos naturales, "objetivos instrumentales" como la autopreservación y la integridad del contenido del objetivo, la mejora cognitiva y la adquisición de recursos. Por ejemplo, un agente cuyo único objetivo final es resolver la hipótesis de Riemann (una famosa conjetura matemática no resuelta) podría crear y actuar sobre un subobjetivo de transformar toda la Tierra en alguna forma de computronio[4]​ (material hipotético optimizado para computación) para ayudar en el cálculo. La superinteligencia resistiría de manera proactiva cualquier intento externo de apagarla o de evitar de otra manera que se alcance el subobjetivo. Para evitar tal catástrofe existencial, es necesario resolver con éxito el "problema de la alineación de la inteligencia artificial" para la primera superinteligencia. La solución podría implicar inculcar a la superinteligencia objetivos que sean compatibles con la supervivencia y el bienestar humanos. Resolver el problema del control es sorprendentemente difícil porque la mayoría de los objetivos, cuando se traducen en código implementable por máquina, conducen a consecuencias imprevistas e indeseables.

El búho de la portada del libro alude a una analogía en la que Bostrom alude a la "Fábula inacabada de los gorriones".[5]​ Un grupo de gorriones decide encontrar un polluelo de lechuza y criarlo como su sirviente.[6]​ Ellos imaginan ansiosamente "lo fácil que sería la vida" si tuvieran un búho para ayudar a construir sus nidos, defender a los gorriones y liberarlos para una vida de ocio. Los gorriones inician la difícil búsqueda de un huevo de lechuza; sólo "Scronkfinkle", un "gorrión tuerto de temperamento inquieto", sugiere pensar en la complicada cuestión de cómo domar al búho antes de traerlo "entre nosotros". Los otros gorriones objetan; la búsqueda de un huevo de lechuza ya será bastante difícil por sí sola: "¿Por qué no obtener primero la lechuza y resolver los detalles más tarde?" Bostrom afirma que "No se sabe cómo termina la historia", pero dedica su libro a Scronkfinkle.[5]

Recepción[editar]

El libro ocupó el puesto 17 en la lista de The New York Times de los libros de ciencia más vendidos en agosto de 2014.[7]​ En el mismo mes, el magnate de los negocios Elon Musk fue noticia al estar de acuerdo con el libro en que la inteligencia artificial es potencialmente más peligrosa que las armas nucleares.[8][9][10]​ El trabajo de Bostrom sobre la superinteligencia también ha influido en la preocupación de Bill Gates por los riesgos existenciales a los que se enfrenta la humanidad en el próximo siglo.[11][12]​ En una entrevista de marzo de 2015 con el CEO de Baidu, Robin Li, Gates dijo que "recomendaría encarecidamente" Superintelligence.[13]​ Según el New Yorker, los filósofos Peter Singer y Derek Parfit la han "recibido como una obra de importancia".

El editor de ciencia del Financial Times concideró que los escritos de Bostrom "a veces se desvían hacia un lenguaje opaco que traiciona su experiencia como profesor de filosofía", pero que demuestra de manera convincente que el riesgo de la superinteligencia es lo suficientemente grande como para que la sociedad comience a pensar ahora en formas de dotar a las futuras máquinas inteligentes con valores positivos.[14]​ Una revisión en The Guardian si bien señaló que "incluso las máquinas más sofisticadas creadas hasta ahora son inteligentes solo en un sentido limitado" y que "las expectativas de que la IA pronto superaría a la inteligencia humana se desvanecieron por primera vez en la década de 1960", encuentra sin embargo puntos en común con Bostrom. al advertir que "no sería aconsejable descartar la posibilidad por completo".[3]

Algunos de los colegas de Bostrom sugieren que la guerra nuclear presenta una amenaza mayor para la humanidad que la superinteligencia, al igual que la perspectiva futura de la nanotecnología y la biotecnología como armas.[3]The Economist afirmó que "Bostrom se ve obligado a pasar gran parte del libro discutiendo especulaciones basadas en conjeturas plausibles... pero, no obstante, el libro es valioso. Las implicaciones de introducir una segunda especie inteligente en la Tierra son lo suficientemente amplias como para merecer una reflexión profunda, incluso si la posibilidad de hacerlo realmente parece remota".[15]Ronald Bailey escribió en la revista Reason que Bostrom argumenta sólidamente que resolver el problema del control de la IA es la "tarea esencial de nuestra época".[16]​ Según Tom Chivers de The Daily Telegraph, el libro es difícil de leer, pero no obstante gratificante.[6]​ Un crítico del Journal of Experimental & Theoretical Artificial Intelligence opinó al contrario que el "estilo de escritura del libro es claro" y lo elogió por evitar una "jerga demasiado técnica".[17]​ Un crítico de Filosofía consideró que Superintelligence era "más realista" que La Singularidad está cerca de Ray Kurzweil.[18]

Véase también[editar]

Referencias[editar]

  1. «Superintelligent Swede snapped up by OUP». The Bookseller. 21 de noviembre de 2013. 
  2. Cookson, Clive (13 de julio de 2014). «Superintelligence: Paths, Dangers, Strategies, by Nick Bostrom». The Financial Times. Archivado desde el original el 6 de agosto de 2014. Consultado el 3 de mayo de 2023. 
  3. a b c Henderson, Caspar (17 de julio de 2014). «Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock – review». The Guardian. Consultado el 3 de mayo de 2023. 
  4. Amato, I. (23 de agosto de 1991). «Speculating in Precious Computronium». Science (en inglés) 253 (5022): 856-857. Bibcode:1991Sci...253..856A. ISSN 0036-8075. PMID 17751817. S2CID 43676333. doi:10.1126/science.253.5022.856. 
  5. a b Adams, Tim (12 de junio de 2016). «Nick Bostrom: 'We are like small children playing with a bomb'». The Observer. Consultado el 3 de mayo de 2023. 
  6. a b Chivers, Tom (10 de agosto de 2014). «Superintelligence by Nick Bostrom, review: 'a hard read'». The Telegraph. Consultado el 3 de mayo de 2023. 
  7. «Best Selling Science Books». The New York Times. 8 de septiembre de 2014. Consultado el 3 de mayo de 2023. 
  8. Dean, James (5 de agosto de 2014). «Artificial intelligence 'may wipe out the human race'». The Times. Consultado el 3 de mayo de 2023. 
  9. Augenbraun, Eliene (4 de agosto de 2014). «Elon Musk tweets Artificial Intelligence may be "more dangerous than nukes"». CBC News. Consultado el 3 de mayo de 2023. 
  10. Bratton, Benjamin H. (3 de mayo de 2023). «Outing A.I.: Beyond the Turing Test». The New York Times. Consultado el 4 de marzo de 2015. 
  11. Mack, Eric (28 de enero de 2015). «Bill Gates Says You Should Worry About Artificial Intelligence». Forbes. Consultado el 3 de mayo de 2023. 
  12. Lumby, Andrew (28 de enero de 2015). «Bill Gates Is Worried About the Rise of the Machines». The Fiscal Times. Consultado el 3 de mayo de 2023. 
  13. Kaiser Kuo (31 de marzo de 2015). «Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015». YouTube. Consultado el 3 de mayo de 2023. 
  14. Henderson, Caspar (17 de julio de 2014). «Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock – review». The Guardian. Consultado el 3 de mayo de 2023. 
  15. «Clever cogs». The Economist. 9 de agosto de 2014. Consultado el 3 de mayo de 2023. 
  16. Bailey, Ronald (12 de septiembre de 2014). «Will Superintelligent Machines Destroy Humanity?». Reason. Consultado el 3 de mayo de 2023. 
  17. Thomas, Joel (de julio de 2015). «In defense of philosophy: a review of Nick Bostrom». Journal of Experimental & Theoretical Artificial Intelligence 28 (6): 1089-1094. doi:10.1080/0952813X.2015.1055829. 
  18. Richmond, Sheldon (8 de julio de 2015). «Superintelligence: Paths, Dangers, Strategies.». Philosophy (revista) 91 (1): 125-130. doi:10.1017/S0031819115000340.