Nick Bostrom

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Nick Bostrom
Nick Bostrom, Stanford 2006 (square crop).jpg
Nick Bostrom en la Universidad de Oxford, 2006
Información personal
Nombre de nacimiento Niklas Boström
Nacimiento 10 de marzo de 1973 (42 años)
Helsingborg - Suecia
Nacionalidad Bandera de Suecia Suecia
Educación
Alma máter Universidad de Gotemburgo, Universidad de Estocolmo
Información profesional
Ocupación Filósofo y catedrático de universidad
Empleador
Movimientos Transhumanismo
Distinciones Professorial Distinction Award de la Universidad de Oxford
FP Top 100 Global Thinkers
Prospect Magazine
Eugene R. Gannon Award
Web
Sitio web
Ficha
[editar datos en Wikidata]

Nick Bostrom (Helsingborg Suecia, 10 de marzo de 1973) es un filósofo de la Universidad de Oxford conocido por su trabajo del principio antrópico. Consiguió el PhD de la LSE en 2000.

Además de sus escritos para la prensa popular y académica, Bostrom frecuenta los medios de comunicación en los que habla sobre el tema del transhumanismo (clonación, inteligencia artificial, mind uploading, criónica, nanotecnología).

En 1998, Bostrom cofundó, junto con David Pearce, la Asociación Transhumanista Mundial. En 2004 cofundó, junto con James Hughes, el Institute for Ethics and Emerging Technologies. En el 2005 fue nominado para Director del recién creado Future of Humanity Institute de Oxford.

Filosofía[editar]

Riesgo existencial

Un importante aspecto de la investigaciones de Bostrom, trata del futuro de la humanidad y el producto a largo plazo. El introduce el concepto de riesgo existencial, el cual lo define como un “producto adverso podría alienar la vida inteligente originada en la tierra o cortar su potencial permanente y drásticamente”. En su volumen “Riesgos Globales Catastróficos”, los editores Bostrom y Milan Cirkovic caracterizan la relación entre riesgo existencial y la amplia gama de riesgos globales catastróficos y entrelazan riesgos existenciales a efectos de selección del observador y la paradoja de Fermi. En el 2013, en un paper en el periódico Global Policy, Bostrom ofrece una taxonomía sobre el riesgo existencial y propone una reconceptualización de la sustentabilidad en términos dinámicos, como una trayectoria de desarrollo que minimiza el riesgo existencial.

El filósofo Derek Parfit argumenta sobre la importancia de asegurar la sobrevivencia humana, dado el valor de un potencial gran número de generaciones futuras. Similarmente Bostrom ha dicho que desde una postura consecuencialista, incluso una pequeña reducción en el riesgo existencial que la humanidad enfrentará es extremadamente valioso, hasta el punto que el imperativo utilitarismo tradicional, puede ser simplificado al principio Maxipok: maximizar la probabilidad de un buen resultado (el cual evita una catástrofe existencial).

En el 2005, Bostrom funda el Instituto del Futuro de la Humanidad, el cual investiga sobre el lejano futuro de la civilización humana. Y también, Bostrom es consejero del Centro de Estudios Sobre Riesgo Existencial.

Superinteligencia

En su libro del 2004Superintelligence: Paths, Dangers, Strategies”. Bostrom la describe como “desempeño cognitivo que exceda, de gran manera, al de los humanos, en virtualmente todos los dominios de interés”. Agentes superinteligentes podrían prometes beneficios sociales sustanciales y presentar un riesgo existencial con relación a la inteligencia artificial significativo. Por lo que es crucial acercarse a este tema con cuidado y tomar pasos activos para mitigar el riesgo que se enfrenta. En enero de 2015, Bostrom se junta con Stephen Hawking, Max Tegmark, Elon Musk, Martin Rees, Jaan Tallinn, entre otros, para firmar la carta abierta sobre potenciales peligros asociados a la inteligencia artificial del Instituto del Futuro de la Vida. Los que firmaron “creen que la investigación sobre cómo hacer los sistemas de IA robustos y beneficiario, es importante y oportuno, y que hay direcciones concretas de investigación que pueden ser seguidas hoy en dia”.

Razonamiento Antrópico

Bostrom ha publicado numerosos artículos sobre razonamiento antrópico, como también el libro “ Anthropic Bias: Observation Selection Effects in Science and Philosophy”. En el libro, el crítica teorías anteriores del principio antrópico, incluyendo teorías de Brandon Carter, John Leslie, John Barrow, y Frank Tipler.

Bostrom cree que el mal manejo de información indexial es una falla en muchas áreas de investigación (incluyendo cosmología, filosofía, teoría evolutiva, teoría de juegos y física cuántica). Argumentando que la teoría antropológica necesita relacionarse con el área. Introduce la Asunción de Automuestreo (SSA en inglés) y la Asunción de Autoindicación (SIA en inglés) y mostró cómo estas guían a diferentes conclusiones en varios casos. Bostrom muestra que cada una es afectada por paradojas o implicancias contraintuitivas en varios experimentos mentales. Él propone que un paso adelante sería expandir la SSA, en la Asunción de Automuestreo Fuerte (SSSA en inglés), la cual reemplaza “observadores en la definición de SSA por “momentos observadores”. Esto podría permitir a la clase de referencia ser relativizada (y llega a la “ecuación de observación”).

Ética del realce humano

Bostrom se encuentra a favor del “realce humano” o el “automejoramiento” y perfeccionamiento humano a través de una aplicación ética de la tecnología, también una presenta una crítica de las miradas bio-concervadoras. Con el filósofo Toby Ord, él propone la prueba reversa (reversal test). Dado el estatus de sesgo irracional de los humanos, ¿cómo uno puede distinguir entre críticas válidas en propuestas de cambio al algún rasgo humano y críticas sólo motivadas por la resistencia al cambio? la prueba reversa intenta solucionar esto planteando la pregunta si sería algo bueno si los rasgos humanos fueran alterados en una dirección opuesta.

En 1998, Bostrom co-fundó con David Pearce, la Asociación Mundial Transhumanista ( la cual luego cambió su nombre a Humanity+). En 2004, co-fundó con James Hughes el Instituto para la Ética y las Tecnologías Emergentes, aunque actualmente no está involucrado en ninguna de estas organizaciones. Bostrom en el 2009 recibió el Premio Eugene R.Gannon por la Continua Búsqueda de Avance Humano y fue puesto en la lista de top pensadores globales de la revista Foreign Policy el 2009 “por no aceptar límites en el potencial humano”.

Estrategia Tecnológica

Bostrom ha sugerido que la norma tecnológica que intenta reducir el riesgo existencial debería influenciar el orden en el cual varias capacidades tecnológicas son obtenidas, proponiendo el Principio de Desarrollo Tecnológico Diferencial. Este principio propone que deberíamos retrasar el desarrollo de tecnologías peligrosas, en particular las que elevan el nivel de riesgo existencial, y que se debería acelerar el desarrollo de tecnologías beneficiarias, en particular aquellos que protegen contra el riesgo existencial que posee la naturaleza u otras tecnologías.

Argumento de Simulación

El Argumento de Simulación de Bostrom postula que al menos una de los siguientes proposiciones es altamente probable de que se cumpla:

La fracción de civilizaciones humanas que alcancen una etapa de posthumancia es muy cercana a cero La fracción de civilización posthumana que está interesada en llevar a cabo simulaciones ancestrales es muy cercano a cero La fracción de todas las personas con nuestro tipo de experiencia que están viviendo en una simulación es muy cercana a uno.

Para estimar la probabilidad de que al menos una de estas propocisiones se sostenga, se tiene la siguiente ecuación:

f_\textrm{sim} = \frac{f_\textrm{p}NH} {(f_\textrm{p}NH)+H}

Donde:

f_\textrm{p} es la fracción de toda las civilizaciones humanas que alcanzarán una capacidad tecnológica para programar simuladores de realidad.
N es el número promedio de simulaciones ancestrales hechas por la civilizaciones mencionadas por f_\textrm{p}.
H es el número promedio de individuos que ha vivido en una civilización antes de que fuera capaz de realizar una simulación de realidad.
f_\textrm{sim} es la fracción de todos los humanos que han vivido en realidades virtuales.

N puede ser calculado multiplicando la fracción de civilizaciones interesadas en desarrollar tales simulaciones (f_\textrm{1}) por el número de simulaciones hechas por tales civilizaciones (N_\textrm{1}):

N = f_\textrm{1}N_\textrm{1}

Por lo tanto la fórmula se convierte en:

f_\textrm{sim} = \frac{f_\textrm{p}f_\textrm{1}N_\textrm{1}} {(f_\textrm{p}f_\textrm{1}N_\textrm{1})+1}

Porque el poder computacional de la posthumancia N_\textrm{1} será un valor tan grande, que alguna de las siguientes tres aproximaciones será verdad:

f_\textrm{p} ≈ 0
f_\textrm{1} ≈ 0
f_\textrm{sim} ≈ 1

Libros[editar]

  • Anthropic Bias: Observation Selection Effects in Science and Philosophy, ISBN 0-415-93858-9

Enlaces externos[editar]