Nick Bostrom

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Nick Bostrom
Nick Bostrom, Stanford 2006 (square crop).jpg
Información personal
Nombre de nacimiento Niklas Boström
Nacimiento 10 de marzo de 1973 (43 años)
Helsingborg, Suecia Ver y modificar los datos en Wikidata
Nacionalidad Suecia
Educación
Alma máter Universidad de Gotemburgo, Universidad de Estocolmo
Información profesional
Ocupación Filósofo, catedrático e informático teórico Ver y modificar los datos en Wikidata
Empleador Ver y modificar los datos en Wikidata
Movimientos Transhumanismo
Distinciones Professorial Distinction Award de la Universidad de Oxford
FP Top 100 Global Thinkers
Prospect Magazine
Eugene R. Gannon Award
Web
Sitio web
[editar datos en Wikidata]

Nick Bostrom (Niklas Boström en sueco) es un filósofo sueco de la Universidad de Oxford, nacido en 1973. Es conocido por sus trabajos sobre el principio antrópico, el riesgo existencial, la ética sobre el perfeccionamiento humano, los riesgos de la superinteligencia y el consecuencialismo. Obtuvo un PhD en la Escuela de Economía y Ciencia Política de Londres en el año 2000. En 1998, Bostrom cofundó junto a David Pearce la Asociación Transhumanista Mundial. En 2004 cofundó junto a James Hughes el Instituto para la Ética y las Tecnologías Emergentes, en 2011 fundó el Programa Oxford Marton Sobre los Impactos de la Tecnología Futurista y es el director fundador del Instituto Futuro de la Humanidad en la Universidad de Oxford.

Es el autor de más de 200 publicaciones,[1] incluyendo: Superinteligencia: caminos, peligros, estrategias (2014), un bestseller según New York Times,[2] y Sesgo antópico: efectos de la selección de observación en la ciencia y la filosofía (2002).[3] En 2009 y 2015, la revista Foreign Policy lo incluyó en su lista de los 100 pensadores globales destacados.[4] [5] El trabajo de Bostrom sobre la superinteligencia y su preocupación por el riesgo existencial que la misma representa para la humanidad en el nuevo siglo, ha llegado a influir en el pensamiento de Elon Musk y Bill Gates.[6] [7] [8]

Biografía[editar]

Bostrom nació un 10 de marzo de 1973 en Helsingborg, Suecia.[9] Desde que era joven le desagradaba la escuela, así que terminó sus últimos años de escuela aprendiendo en casa, optando por educarse a sí mismo en una gran variedad de disciplinas como antropología, arte, literatura y ciencia.[10]

Obtuvo un B.A. en filosofía, matemáticas, lógica matemática e inteligencia artificial en la Universidad de Gotemburgo y un grado de master en filosofía y física, y neurociencia computacional de la Universidad de Estocolmo y el King's College de Londres respectivamente. Mientras estudiaba en la Universidad de Estocolmo, investigó la relación entre el lenguaje y la realidad estudiando al filósofo analítico Willard Van Orman Quine.[10] En el año 2000 ganó un PhD en filosofía en la Escuela de Economía de Londres. Se mantuvo dos años (2000-2002) como educador en la Universidad de Yale.

Bostrom ha dado consejos sobre políticas además de consultorías para un amplio rango de gobiernos y organizaciones. Fue consultor para la Oficina gubernamental de Ciencia del Reino Unido y un miembro experto para la Agenda del Consejo para Riesgos Catastróficos del Foro Económico Mundial. Es un miembro consultor de la junta del Instituto de Investigación de la Inteligencia de las Máquinas, el Instituto para el Futuro de la Vida, el Intituto de Preguntas Fundacionales en física y cosmología, y un consultor externo para el Centro para el Estudio del Riesgo Existencial de Cambridge.[11]

Filosofía[editar]

Riesgo existencial[editar]

Un aspecto importante de las investigaciones de Bostrom se enfoca en el futuro de la humanidad y en los resultados a largo plazo.[12] [13] Introdujo el conceptro de "riesgo existencial", el cual define como el riesgo de que "un resultado adverso pudiera ya sea devastar el origen de la vida inteligente en la Tierra o permanente y drásticamente restringir su potencial". En el libro Riesgo catastrófico global (2008), los editores Nick Bostrom y Milan Ćirković caracterizaron la relación entre el riesgo existencial y la cada vez más amplia gama de riesgos catastróficos de talla global, y relacionaron el riesgo existencial con los efectos de la selección del observador[14] y la paradoja de Fermi.[15] [16] En un escrito de 2013 para el periódico Global Policy, Bostrom ofrece una taxonomía del riesgo existencial y propone una reconceptualización de sustantibilidad en términos dinámicos: como una trayectoria para el desarrollo destinada a minimizar el riesgo existencial.[17]

Superinteligencia[editar]

En su libro Superinteligencia: caminos, peligros, estrategias (2014), Bostrom razona que con "un desempeño cognitivo excediendo enormemente el de los humanos en virtualmente todos los dominios de interés", los agentes superinteligentes podrían prometer beneficios sustanciales para la sociedad, pero plantear un significativo riesgo existencial. Por lo tanto, Bostrom asegura que es crucial que abordemos el campo de la inteligencia artificial con precaución y tomemos medidas activas para mitigar el riesgo que enfrentamos. En enero de 2015, Nick Brostrom, Stephen Hawking, Max Tegmark, Elon Musk, Martin Rees y Jaan Tallinn, entre otros, firmaron una carta abierta de parte del Instituto para el Futuro de la Vida advirtiendo sobre los potenciales peligros de la inteligencia artificial, en la cual reconocían que "es importante y oportuno investigar cómo desarrollar sistemas de inteligencia artificial que sean sólidos y beneficiosos, y que existen direcciones de investigación concretas que pueden ser perseguidas hoy en día." [18] [19]

Razonamiento antrópico[editar]

Bostrom ha publicado numerosos artículos sobre razonamiento antrópico, así como el libro Sesgo antópico: efectos de la selección de observación en la ciencia y la filosofía, en el cual critica las formulaciones previas sobre el principio antrópico, incluyendo las de Brandon Carter, John Leslie, John Barrow y Frank Tipler.[20]

Bostrom cree que el mal manejo de la información indicativa es una falla común en muchas áreas de la indagación (incluyendo cosmología, filosofía, teoría de la evolución, teoría de juegos y física cuántica) y argumenta que es necesaria una teoría antrópica para lidiar con estas. Bostrom introdujo el "supuesto de auto-prueba" y el "supuesto de auto-indicación" y mostró como ambos llevan a diferentes conclusiones en un número de casos, señalando que, en ciertos experimentos del pensamiento, cada uno de ellos es afectado por paradojas o implicaciones contraintuitivas. Él sugirió que para poder avanzar habría que que extender el supuesto de auto-prueba hacia un "fuerte supuesto de auto-prueba", el cual reemplaza a los "observadores" por "momentos del observador", lo cual permitiría que la clase de referencia sea relativizada (y creó una expresión para esto en la "ecuación de la observación").

En trabajos posteriores, describió el fenómeno de la "sombra antrópica", un efecto de la selección de observación que previene a los observadores de observar cierto tipo de catástrofes en su pasado geológico y evolutivo reciente.[21] Los tipos de catástrofes que se hallan en la sombra antrópica tienden a ser infraestimados a menos que se hagan correcciones estadísticas.

Ética del perfeccionamiento humano[editar]

Bostrom se muestra a favor de alcanzar el "perfeccionamiento humano", o la "automejora y la perfectibilidad humana a través de la ética aplicación de la ciencia",[22] [23] a su vez que critica las posturas bio-conservadoras.[24] Propuso, junto al filósofo Toby Ord, la prueba inversa. Dado el sesgo irracional del status quo humano, ¿cómo puede uno distinguir entre la crítica válida hacia los cambios propuestos en una cualidad humana y la crítica motivada por la resistencia al cambio? La prueba inversa intenta resolver esto preguntando si sería bueno alterar dicha cualidad en la dirección opuesta.[25]

En 1998, Bostrom cofundó juntó al filósofo David Pearce la Asociación Transhumanista Mundial,[22] hoy llamada Humanity+. En 2004 cofundó junto al sociólogo James Hughes el Instituto para la Ética y las Tecnologías Emergentes, aunque actualmente ya no se involucra en ninguna de estas organizaciones.

En 2009, la revista Foreign Policy mencionó a Bostrom en su lista sobre pensadores globales, por "no aceptar límites en el potencial humano."[26]

Estrategia tecnológica[editar]

Bostrom ha sugerido que una política tecnológica dirigida a reducir el riesgo existencial debería de buscar influenciar el orden en el que varias capacidades tecnológicas son conseguidas, proponiendo el principio del desarrollo tecnológico diferencial. Este sostiene que los humanos deberíamos retrasar el desarrollo de tecnologías peligrosas, particularmente de aquellas que elevan el riesgo existencial, y acelerar el desarrollo de tecnología beneficiosas, particularmente aquellas que nos protegen del riesgo existencial que recae en la naturaleza o en otras tecnologías.

Argumento de la simulación[editar]

El argumento de la simulación de Bostrom propone que al menos uno de los siguientes enunciados es verdad:

  1. La fracción de civilizaciones a un nivel humano que alcanzan un estadio posthumano es muy cercana a cero;
  2. La fracción de civilizaciones posthumanas que se interesan en correr simulaciones sobre ancestros es muy cercana a cero;
  3. La fracción de todas las personas con nuestro tipo de experiencias que se hallan viviendo en una simulación es muy cercana a uno.

Para estimar la probabilidad de al menos una de estas proposiciones, Bostrom ofrece la siguiente ecuación::[27]

Donde:

Es la fracción de todas las civilizaciones humanas que alcanzarán la capacidad tecnológica de programar simuladores de realidad virtual.
es el número promedio de simulaciones sobre ancestros que corran las civilizaciones representadas por .
es el número promedio de individuos que han vivido en una civilización antes de que ésta fuera capaz de correr una simulación de la realidad.
es la fracción de todos los humanos que viven en realidades virtuales.

N se puede calcular multiplicando la fracción de civilizaciones interesadas en crear dichas simulaciones () por el número de simulaciones corridas por dichas civilizaciones ():

Por lo tanto la fórmula se convierte en:

Ya que el poder de la computación posthumana será mucho mayor, tendrá un valor muy grande, de modo que al menos una de las siguientes aproximaciones será verdad:

≈ 0
≈ 0
≈ 1

Libros[editar]

Referencias[editar]

  1. OUPblog. «The viability of Transcendence: the science behind the film». Consultado el 16 de octubre de 2014. 
  2. The New York Times. «Best Selling Science Books». Consultado el 19 de febrero de 2015. 
  3. «Nick Bostrom on artificial intelligence». Oxford University Press. 8 de septiembre de 2014. Consultado el 4 de marzo de 2015. 
  4. Frankel, Rebecca. «The FP Top 100 Global Thinkers». Foreign Policy. Consultado el 5 de septiembre de 2015. 
  5. «Nick Bostrom: For sounding the alarm on our future computer overlords.». foreignpolicy.com. Revista Foreign Policy. Consultado el 1 de diciembre de 2015. 
  6. «Forbes». Forbes. Consultado el 19 de febrero de 2015. 
  7. The Fiscal Times. «Bill Gates Is Worried About the Rise of the Machines». Consultado el 19 de febrero de 2015. 
  8. Bratton, Benjamin H. (23 de febrero de 2015). «Outing A.I.: Beyond the Turing Test». The New York Times. Consultado el 4 de marzo de 2015. 
  9. «Nick Bostrom home page». Consultado el 22 de julio de 2014. 
  10. a b Khatchadourian, Raffi (23 de noviembre de 2015). «The Doomsday Invention». The New Yorker XCI (37) (Condé Nast). pp. 64-79. ISSN 0028-792X. 
  11. «nickbostrom.com». Nickbostrom.com. Consultado el 19 de febrero de 2015. 
  12. Bostrom, Nick (Marzo de 2002). «Existential Risks». Journal of Evolution and Technology 9. 
  13. Andersen, Ross. «Omens». Aeon Media Ltd. Consultado el 5 de septiembre de 2015. 
  14. Tegmark, Max; Bostrom, Nick (2005). «Astrophysics: is a doomsday catastrophe likely?» (PDF). Nature 438 (7069). p. 754. doi:10.1038/438754a. PMID 16341005. 
  15. Bostrom, Nick (Mayo-junio de 2008). «Where are they? Why I Hope the Search for Extraterrestrial Life Finds Nothing» (PDF). MIT Technology Review. pp. 72-77. 
  16. Overbye, Dennis (3 de agosto de 2015). «The Flip Side of Optimism About Life on Other Planets». The New York Times. Consultado el 29 de octubre de 2015. 
  17. «Existential Risk Prevention as Global Priority» (PDF). Nickbostrom.com. Consultado el 16 de octubre de 2014. 
  18. «The Future of Life Institute Open Letter». The Future of Life Institute. Consultado el 4 de marzo de 2015. 
  19. The Financial Times. «Scientists and investors warn on AI». Consultado el 4 de marzo de 2015. 
  20. Bostrom, Nick (2002). Anthropic Bias: Observation Selection Effects in Science and Philosophy. Nueva York: Routledge. pp. 44-58. ISBN 0-415-93858-9. Consultado el 22 de julio de 2014. 
  21. «Anthropic Shadow: Observation Selection Effects and Human Extinction Risks» (PDF). Nickbostrom.com. Consultado el 16 de octubre de 2014. 
  22. a b Sutherland, John (9 de mayo de 2006). «The ideas interview: Nick Bostrom; John Sutherland meets a transhumanist who wrestles with the ethics of technologically enhanced human beings». The Guardian. 
  23. Bostrom, Nick (2003). «Human Genetic Enhancements: A Transhumanist Perspective» (PDF). Journal of Value Inquiry 37 (4). pp. 493-506. doi:10.1023/B:INQU.0000019037.67783.d5. 
  24. Bostrom, Nick (2005). «In Defence of Posthuman Dignity». Bioethics 19 (3). pp. 202-214. doi:10.1111/j.1467-8519.2005.00437.x. PMID 16167401. 
  25. Bostrom, Nick; Ord, Toby (2006). «The reversal test: eliminating status quo bias in applied ethics» (PDF). Ethics 116 (4). pp. 656-679. doi:10.1086/505233. 
  26. Foreign Policy (Diciembre de 2009). «The FP Top 100 Global Thinkers – 73. Nick Bostrom». 
  27. Bostrom, Nick (19 de enero de 2010). «Are You Living in a Computer Simulation?». 

Enlaces externos[editar]