Riesgo existencial de la inteligencia artificial

De Wikipedia, la enciclopedia libre

El riesgo existencial de la inteligencia artificial general es la hipótesis de que un progreso sustancial en la inteligencia artificial general (IAG) podría resultar en la extinción humana o alguna otra catástrofe global irrecuperable.[1][2][3]

La escuela del riesgo existencial ("riesgo x") argumenta que la especie humana actualmente domina a otras especies porque el cerebro humano tiene algunas capacidades distintivas de las que carecen otros animales. Si la IA superara a la humanidad en inteligencia general y se volviera "superinteligente", entonces podría volverse difícil o imposible de controlar para los humanos. Así como el destino del gorila de montaña depende de la buena voluntad humana, el destino de la humanidad podría depender de las acciones de una futura superinteligencia mecánica.[4]

La probabilidad de este tipo de escenario es ampliamente debatida y depende en parte de diferentes escenarios sobre el progreso futuro de la informática.[5]​ Los principales científicos informáticos y directores ejecutivos de tecnología como Geoffrey Hinton,[6]Alan Turing, Elon Musk,[7]​ y Sam Altman, director ejecutivo de OpenAI, han expresado su preocupación por la superinteligencia.[8]​ En 2022, una encuesta de investigadores de IA encontró que algunos investigadores creen que existe un 10 por ciento o más de posibilidades de que nuestra incapacidad para controlar la IA puede provocar una catástrofe existencial (más de la mitad de los encuestados de la encuesta, con una tasa de respuesta del 17%).[9][10]

Dos fuentes de preocupación son los problemas del control y la alineación de la IA: que controlar una máquina superinteligente o inculcarle valores compatibles con los humanos puede ser un problema más difícil de lo que se supone ingenuamente. Muchos investigadores creen que una superinteligencia resistiría los intentos de apagarla o cambiar sus objetivos (ya que tal incidente le impediría lograr sus objetivos actuales) y que será extremadamente difícil alinear la superinteligencia con la amplitud completa de importantes valores, valores humanos y aplicar restricciones.[11][12][13]​ Por lo contrario, los escépticos como el informático teórico Yann LeCun argumentan que las máquinas superinteligentes no tendrán ningún deseo de autopreservación.[14]

Una tercera fuente de preocupación es que la llamada "singularidad tecnológica" repentina pueda tomar por sorpresa a una raza humana que no esté preparada. Ejemplificando: si la primera generación de un programa de computadora que puede igualar ampliamente la efectividad de un investigador de IA, puede reescribir sus algoritmos y duplicar su velocidad o capacidades en seis meses, entonces se espera que el programa de segunda generación tarde tres meses calendario para realizar una parte similar del trabajo. En este escenario, el tiempo para cada generación continúa reduciéndose, y el sistema experimenta una gran cantidad de etapas de mejora sin precedentes en un corto intervalo de tiempo, saltando de un desempeño infrahumano en muchas áreas a un desempeño sobrehumano en prácticamente todos los dominios de interés.[15][16]​ Empíricamente, ejemplos como AlphaZero en el dominio de Go muestran que los sistemas de IA a veces pueden progresar desde una capacidad limitada a nivel humano hasta una capacidad sobrehumana limitada de forma extremadamenta rápida.[17]

Historia[editar]

Uno de los primeros autores en expresar su seria preocupación de que las máquinas altamente avanzadas pudieran representar riesgos existenciales para la humanidad fue el novelista Samuel Butler, quien escribió lo siguiente en su ensayo de 1863 Darwin between the Machines:[N 1][18][19]

El resultado es simplemente una cuestión de tiempo, pero que llegará el momento en que las máquinas tendrán la supremacía real sobre el mundo y sus habitantes es lo que ninguna persona con una mente verdaderamente filosófica puede cuestionar por un momento.

En 1951, el científico informático Alan Turing escribió un artículo titulado Maquinaria inteligente, una teoría herética (Intelligent Machinery, A Heretical Theory), en el que proponía que las inteligencias generales artificiales probablemente "tomarían el control" del mundo a medida que se volvieran más inteligentes que los seres humanos:

Supongamos ahora, por el bien del argumento, que las máquinas [inteligentes] son ​​una posibilidad genuina, y miremos las consecuencias de construirlas... No sería un tema que las máquinas mueran, y podrían conversar unas con otras para agudizar su ingenio. En algún momento, por lo tanto, podríamos esperar que las máquinas tomen el control, de la manera que se menciona en Samuel Butler de Erewhon.[20]

En 1965, I. J. Good[21]​ creó el concepto ahora conocido como "explosión de inteligencia"; también afirmó que los riesgos eran subestimados:[22]

Definemos una máquina ultrainteligente como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces incuestionablemente habría una 'explosión de inteligencia', y la inteligencia del hombre quedaría muy atrás. Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente documentada como para decirnos cómo mantenerla bajo control. Es curioso que este punto se haga tan raramente fuera de la ciencia ficción. A veces vale la pena tomarse la ciencia ficción en serio.[23]

Declaraciones ocasionales de académicos como Marvin Minsky[24]​ y el mismo Good[25]​ expresaron preocupaciones filosóficas de que una superinteligencia podría tomar el control, pero no contenían un llamado a la acción. En 2000, el científico informático y cofundador de Sun Microsystems, Bill Joy, escribió un influyente ensayo, "Por qué el futuro no nos necesita", identificando a los robots superinteligentes como un peligro de alta tecnología para la supervivencia humana, junto con la nanotecnología y las bioplagas diseñadas.[26]

En 2009, los expertos asistieron a una conferencia privada organizada por la Asociación para el Avance de la Inteligencia Artificial (AAAI) para discutir si las computadoras y los robots podrían adquirir algún tipo de autonomía, y en qué medida estas habilidades podrían representar una amenaza o peligro. Señalaron que algunos robots han adquirido varias formas de semiautonomía, incluida la capacidad de encontrar fuentes de energía por sí mismos y elegir objetivos de forma independiente para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado una "inteligencia de cucaracha". Llegaron a la conclusión de que la autoconciencia tal como se describe en la ciencia ficción es poco probable, pero que existen otros peligros y trampas potenciales. The New York Times resumió la visión de la conferencia como "estamos muy lejos de Hal, la computadora que se hizo cargo de la nave espacial en 2001: una odisea del espacio ".[27]

Nick Bostrom publicó Superintelligence en 2014, donde presentó sus argumentos de que la superinteligencia representa una amenaza existencial.[28]​ En 2015, figuras públicas como los físicos Stephen Hawking y el premio Nobel Frank Wilczek, los informáticos Stuart J. Russell y Roman Yampolskiy[N 2]​, y los empresarios Elon Musk y Bill Gates expresaron su preocupación por los riesgos de la superinteligencia.[29][30][31][32]​ En abril de 2016, Nature advirtió: "Las máquinas y los robots que superan a los humanos en todos los ámbitos podrían mejorar por sí mismos más allá de nuestro control, y sus intereses podrían no alinearse con los nuestros".[33]

En 2020, Brian Christian[N 3]​ publicó The Alignment Problem, que detalla la historia del progreso en la alineación de la IA hasta ese momento.[34][35]

Argumento general[editar]

Las tres dificultades[editar]

Inteligencia artificial: un enfoque moderno, el libro de texto estándar de IA para estudiantes universitarios,[36][37]​ evalúa que la superinteligencia "podría significar el fin de la raza humana".[38]​ Afirma: "Casi cualquier tecnología tiene el potencial de causar daño en las manos equivocadas, pero con [la superinteligencia], tenemos el nuevo problema de que las manos equivocadas podrían pertenecer a la tecnología misma".[38]​ Incluso si los diseñadores del sistema tienen buenas intenciones, dos dificultades son comunes tanto a los sistemas informáticos de IA como a los que no lo son:[38]

  • La implementación del sistema puede contener errores inicialmente desapercibidos pero posteriormente catastróficos. Una analogía son las sondas espaciales: a pesar del conocimiento de que los errores en las costosas sondas espaciales son difíciles de corregir después del lanzamiento, históricamente los ingenieros no han podido evitar que ocurran errores catastróficos.[39][40]
  • No importa cuánto tiempo se dedique al diseño previo a la implementación, las especificaciones de un sistema a menudo dan como resultado un comportamiento no deseado la primera vez que se encuentra con un nuevo escenario. Por ejemplo, el bot Tay de Microsoft se comportó de manera inofensiva durante las pruebas previas a la implementación, pero se le provocó con demasiada facilidad un comportamiento ofensivo cuando interactuó con usuarios reales.[41]

Los sistemas de IA agregan un tercer problema de manera única: que incluso con los requisitos "correctos", la implementación sin errores y el buen comportamiento inicial, las capacidades de aprendizaje dinámico de un sistema de IA pueden hacer que evolucione hacia un sistema con un comportamiento no deseado, incluso sin escenarios externos imprevistos. Una IA puede estropear en parte un intento de diseñar una nueva generación de sí misma y crear accidentalmente una IA sucesora que sea más poderosa que ella misma, pero que ya no mantenga los valores morales humanos compatibles preprogramados en la IA original. Para que una IA que se mejore a sí misma sea completamente segura, no solo debería estar libre de errores, sino que también debería poder diseñar sistemas sucesores que también estén libres de errores.[42][43]

Estas tres dificultades se convierten en catástrofes en lugar de molestias en cualquier escenario en el que la superinteligencia etiquetada como "mal funcionamiento" predice correctamente que los humanos intentarán apagarlo y despliega con éxito su superinteligencia para burlar tales intentos: un escenario que ha recibido el nombre "giro traicionero" (reacherous turr.)[44]

Citando importantes avances en el campo de la IA y el potencial de que la IA tenga enormes beneficios o costos a largo plazo, la Carta Abierta sobre Inteligencia Artificial de 2015 declaró:

El progreso en la investigación de la IA hace que sea oportuno centrar la investigación no solo en hacer que la IA sea más capaz, sino también en maximizar el beneficio social de la IA. Tales consideraciones motivaron el Panel Presidencial AAAI 2008-09 sobre Futuros de IA a Largo Plazo y otros proyectos sobre impactos de IA, y constituyen una expansión significativa del campo de la IA en sí, que hasta ahora se ha centrado en gran medida en técnicas que son neutrales con respecto a objetivo. Recomendamos una investigación ampliada destinada a garantizar que los sistemas de IA cada vez más capaces sean robustos y beneficiosos: nuestros sistemas de IA deben hacer lo que queremos que hagan.

Los firmantes incluyeron al presidente de AAAI, Thomas Dietterich,[N 4]Eric Horvitz,[N 5]Bart Selman,[N 6]Francesca Rossi, Yann LeCun y los fundadores de Vicarious[N 7]​ y Google DeepMind.[45]

El argumento de Bostrom[editar]

Una máquina superinteligente sería tan extraña para los humanos como lo son los procesos de pensamiento humanos para las cucarachas, argumenta Bostrom.[46]​ Tal máquina puede no tener en mente los mejores intereses de la humanidad; no es obvio que incluso se preocuparía por el bienestar humano en absoluto. Si la IA superinteligente es posible, y si es posible que los objetivos de una superinteligencia entren en conflicto con los valores humanos básicos, entonces la IA plantea un riesgo de extinción humana. Una "superinteligencia" (un sistema que excede las capacidades de los humanos en todos los dominios de interés) puede superar a los humanos en cualquier momento en que sus objetivos entren en conflicto con los objetivos humanos; por lo tanto, a menos que la superinteligencia decida permitir que la humanidad coexista, la primera superinteligencia que se cree resultará inexorablemente en la extinción humana.[47][46]

Stephen Hawking argumenta que no existe una ley física que impida que las partículas se organicen de manera que realicen cálculos aún más avanzados que los arreglos de partículas en el cerebro humano; por lo tanto, la superinteligencia es físicamente posible.[48][49]​ Además de las posibles mejoras algorítmicas en comparación con los cerebros humanos, un cerebro digital puede ser en varios órdenes de magnitud más grande y más rápido que un cerebro humano, cuyo tamaño se vio limitado por la evolución para ser lo suficientemente pequeño como para pasar por un canal de parto.[50]​ Hawking advierte que el surgimiento de la superinteligencia puede tomar por sorpresa a la raza humana, especialmente si advieneo la singularidad tecnológica.[48][49]

De acuerdo con la "escuela de pensamiento del riesgo x" de Bostrom, un escenario hipotético de explosión de inteligencia funciona de la siguiente manera: una IA adquiere una capacidad de nivel experto en ciertas tareas clave de ingeniería de software. (Inicialmente puede carecer de capacidades humanas o sobrehumanas en otros dominios que no sean directamente relevantes para la ingeniería). Debido a su capacidad para mejorar recursivamente sus propios algoritmos, la IA se vuelve rápidamente sobrehumana; Así como los expertos humanos pueden eventualmente superar creativamente los "rendimientos decrecientes" mediante el despliegue de varias capacidades humanas para la innovación, la IA de nivel experto también puede usar capacidades de estilo humano o sus propias capacidades específicas de IA para impulsar nuevos avances creativos.[51]​ Entonces, la IA posee una inteligencia que supera con creces la de las mentes humanas más brillantes y dotadas en prácticamente todos los campos relevantes, incluida la creatividad científica, la planificación estratégica y las habilidades sociales.[52][53]

La escuela del riesgo x cree que casi cualquier IA, sin importar su objetivo programado, preferiría racionalmente estar en una posición en la que nadie más pueda apagarla sin su consentimiento: una superinteligencia obtendrá la autopreservación como un subobjetivo tan pronto se percate de que no puede lograr su objetivo si es apagada.[54][55][56]​ Desafortunadamente, cualquier compasión por los humanos derrotados cuya cooperación ya no es necesaria estaría ausente en la IA, a menos que esté preprogramada de alguna manera. Una IA superinteligente no tendrá un impulso natural[N 8]​ para ayudar a los humanos, por la misma razón que los humanos no tienen un deseo natural de ayudar a los sistemas de IA que ya no les sirven. (Otra analogía es que los humanos parecen tener poco deseo natural de salir de su camino para ayudar a los virus, las termitas o incluso los gorilas.) Una vez a cargo, la superinteligencia tendrá pocos incentivos para permitir que los humanos corran libremente y consuman recursos que la superinteligencia podría usar para construir sistemas de protección adicionales "solo para estar en el lado seguro" o para construir computadoras adicionales para ayudarla a calcular la mejor manera de lograr sus objetivos.[57][58][54]

Por lo tanto, concluye la escuela del riesgo x, es probable que algún día una explosión de inteligencia tome a la humanidad desprevenida y pueda resultar en la extinción humana o en un destino comparable.[59]

Posibles escenarios[editar]

Algunos académicos han propuesto escenarios hipotéticos para ilustrar algunas de sus preocupaciones.

En Superinteligencia, Nick Bostrom expresa su preocupación de que incluso si la línea de tiempo para la superinteligencia resultara ser predecible, los investigadores podrían no tomar suficientes precauciones de seguridad, en parte porque "podría darse el caso de que cuando es tonto, más inteligente es seguro; sin embargo, cuando es inteligente, más inteligente es más peligroso". Bostrom sugiere un escenario en el que, durante décadas, la IA se vuelve más poderosa. El despliegue generalizado se ve empañado inicialmente por accidentes ocasionales: un autobús sin conductor se desvía hacia el carril que se aproxima o un dron militar dispara contra una multitud inocente. Muchos activistas piden una supervisión y una regulación más estrictas, y algunos incluso predicen una catástrofe inminente. Pero a medida que continúa el desarrollo, se demuestra que los activistas están equivocados. A medida que la IA automotriz se vuelve más inteligente, sufre menos accidentes; a medida que los robots militares alcanzan objetivos más precisos, causan menos daños colaterales. Según los datos, los académicos infieren erróneamente una lección amplia: cuanto más inteligente es la IA, más segura es. "Y entonces vamos audazmente hacia los cuchillos giratorios", ya que la IA superinteligente toma un "giro traicionero" y explota una ventaja estratégica decisiva.[60]

En el libro Life 3.0 de Max Tegmark de 2017, el "equipo Omega" de una corporación crea una IA extremadamente poderosa capaz de mejorar moderadamente su propio código fuente en varias áreas. Después de cierto punto, el equipo elige minimizar públicamente la capacidad de la IA para evitar la regulación o la confiscación del proyecto. Por seguridad, el equipo mantiene la AI box en la que en su mayoría no puede comunicarse con el mundo exterior, y la usa para ganar dinero, por diversos medios, como tareas de Amazon Mechanical Turk, producción de películas animadas y programas de televisión, y desarrollo. de medicamentos biotecnológicos, con ganancias invertidas para mejorar aún más la IA. A continuación, el equipo le asigna a la IA la tarea de hacer astroturfing a un ejército de periodistas y comentaristas ciudadanos seudónimos, con el fin de ganar influencia política para usar "por el bien común" para prevenir guerras. El equipo se enfrenta a riesgos de los que la IA podría intentar escapar insertando "puertas traseras" en los sistemas que diseña, mediante mensajes ocultos en su contenido producido o utilizando su creciente comprensión del comportamiento humano para persuadir a alguien de que lo deje libre. El equipo también enfrenta riesgos de que su decisión de encajonar el proyecto lo retrase lo suficiente como para que otro proyecto lo supere.[61][62]

El físico Michio Kaku, un escéptico del riesgo de la IA, postula un resultado deterministamente positivo. En Physics of the Future, afirma que "los robots tardarán muchas décadas en ascender" en una escala de conciencia y que, mientras tanto, corporaciones como Hanson Robotics[N 9]​ probablemente tendrán éxito en la creación de robots que sean "capaces de amar y de lograr un lugar" en la familia humana extendida".[63][64]

Toma de control de IA[editar]

Una toma de control de IA es un escenario hipotético en el que una inteligencia artificial (IA) se convierte en la forma dominante de inteligencia en la Tierra, ya que los programas informáticos o los robots quitan efectivamente el control del planeta a la especie humana.
Los posibles escenarios incluyen:

  • el reemplazo de toda la fuerza laboral humana,
  • la toma de control por parte de una IA superinteligente y
  • la noción popular de una rebelión de robots.

Las historias de adquisiciones de IA son muy populares en la ciencia ficción.
Algunas figuras públicas, como Stephen Hawking y Elon Musk, han abogado por la investigación de medidas de precaución para garantizar que las futuras máquinas superinteligentes permanezcan bajo el control humano.[cita requerida]

Argumentos antropomórficos[editar]

Los argumentos antropomórficos suponen que, a medida que las máquinas se vuelvan más inteligentes, comenzarán a mostrar muchos rasgos humanos, como la moralidad o la sed de poder. Aunque los escenarios antropomórficos son comunes en la ficción, la mayoría de los estudiosos los rechazan cuando escriben sobre el riesgo existencial de la inteligencia artificial.[65]​ En cambio, la IA se modela como agentes inteligentes.

El debate académico es entre un grupo que se preocupa si la IA podría destruir a la humanidad y otro que cree que la IA no destruiría a la humanidad en absoluto. Ambas partes han afirmado que las predicciones de los demás sobre el comportamiento de una IA son antropomorfismo ilógico.[66]​ Los escépticos acusan a los defensores del antropomorfismo de creer que un IAG naturalmente desearía el poder; los defensores acusan a algunos escépticos de antropomorfismo por creer que un IAG naturalmente valoraría las normas éticas humanas.[66][67]

El psicólogo evolutivo Steven Pinker, un escéptico, argumenta que "las distopías de IA proyectan una psicología parroquial de macho alfa en el concepto de inteligencia. Suponen que los robots sobrehumanamente inteligentes desarrollarían objetivos como deponer a sus amos o dominar el mundo"; quizás en cambio "la inteligencia artificial se desarrollará naturalmente a lo largo de las líneas femeninas: totalmente capaz de resolver problemas, pero sin deseo de aniquilar a inocentes o dominar la civilización. " [68]​ El director de investigación de inteligencia artificial de Facebook, Yann LeCun, afirma que "los humanos tienen todo tipo de impulsos que los hacen hacer cosas malas entre sí, como el instinto de autoconservación... Esos impulsos están programados en nuestro cerebro, pero no hay absolutamente ninguna razón para construir robots que tengan el mismo tipo de impulsos".[69]

A pesar de otras diferencias, la escuela de riesgo x está de acuerdo con Pinker en que una IA avanzada no destruiría a la humanidad por emociones humanas como "venganza" o "ira", que las cuestiones de conciencia no son relevantes para evaluar el riesgos,[70]​ y que los sistemas informáticos generalmente no tienen un equivalente computacional de la testosterona.[71]​ Piensan que las conductas de búsqueda de poder o de autoconservación emergen en la IA como una forma de alcanzar sus verdaderos objetivos, según el concepto de convergencia instrumental.

Definición de "inteligencia"[editar]

Según Bostrom, fuera del campo de la inteligencia artificial, la "inteligencia" a menudo se usa de una manera que connota sabiduría moral o aceptación de formas agradables de razonamiento moral. En un extremo, si la moralidad es parte de la definición de inteligencia, entonces, por definición, una máquina superinteligente se comportaría moralmente. Sin embargo, la mayoría de las investigaciones de "inteligencia artificial" se centran en la creación de algoritmos que "optimicen", de forma empírica el logro de cualquier objetivo que los investigadores hayan especificado.[72]

Para evitar el antropomorfismo o el bagaje de la palabra "inteligencia", se puede pensar en una inteligencia artificial avanzada como un "proceso de optimización" impersonal que toma estrictamente las acciones que considera más probables para lograr sus objetivos (posiblemente complicados e implícitos).[73]​ Otra forma de conceptualizar una inteligencia artificial avanzada es imaginar una máquina del tiempo que envía información hacia atrás en el tiempo sobre qué elección que siempre conduce a la maximización de su función objetivo; esta elección se genera independientemente de cualquier preocupación ética externa.[74][75]

Fuentes de riesgo[editar]

Problema de alineación de IA[editar]

En el campo de la inteligencia artificial, la investigación sobre la alineación o el alineamiento (en inglés, AI alignment) se ocupa de buscar formas de dirigir el desarrollo de los sistemas de inteligencia artificial en conformidad con los objetivos e intereses de sus diseñadores.[N 10]​Si un sistema es competente, pero persigue objetivos que no han sido previstos por los investigadores, se dice que no está alineado.[N 11]

La alineación de los sistemas de inteligencia artificial incluye los siguientes problemas: la dificultad de especificar completamente todos los comportamientos deseados y no deseados; el uso de objetivos intermedios fáciles de especificar que omiten restricciones deseables; trampas para obtener recompensas, por medio de las cuales los sistemas encuentran lagunas en dichos objetivos intermedios, creando efectos colaterales;[78]objetivos instrumentales, como la búsqueda de poder, que ayudan al sistema a lograr sus objetivos finales;[79][80][81]​ y objetivos emergentes que sólo se hacen patentes cuando el sistema se implementa en nuevas situaciones y distribuciones de datos.[80][82]​ Estos problemas afectan a sistemas comerciales como robots,[83]​ modelos de lenguaje,[84][85]​ vehículos autónomos,[86]​ y sistemas de recomendación de redes sociales.[84][79][87]​ Se cree que los problemas son tanto más probables cuanto más capaz es el sistema, ya que en parte resultan de esa alta capacidad.[88][80]

La comunidad de investigadores de la inteligencia artificial y las Naciones Unidas han exigido tanto soluciones basadas en la investigación técnica como soluciones políticas para garantizar que los sistemas estén alineados con los valores humanos.[N 12]

La alineación de sistemas es parte de un campo de estudio más amplio llamado seguridad en la inteligencia artificial (en inglés, AI safety), es decir, el estudio de cómo construir sistemas de inteligencia artificial que sean seguros.[80][91]​ Las vías para la investigación de la alineación incluyen el aprendizaje de los valores y las preferencias humanas, el desarrollo de inteligencia artificial honesta, la supervisión extensible, el examen e interpretación de modelos de inteligencia artificial, y la prevención de comportamientos emergentes, como la búsqueda de poder.[80][92]​ La investigación de la alineación tiene conexiones con la investigación de la interpretabilidad,[93]​ la solidez,[80][91]​ la detección de anomalías, la incertidumbre calibrada,[93]​ la verificación formal,[94]​ el aprendizaje por preferencias,[95][96][97]​ la ingeniería de seguridad,[80]​ la teoría de juegos,[98][99]​ la equidad algorítmica,[91][100]​ y las ciencias sociales,[101]​ entre otros.

Dificultad para especificar objetivos.[editar]

En el modelo de "agente inteligente", una IA puede verse vagamente como una máquina que elige cualquier acción que parezca lograr mejor el conjunto de objetivos de la IA, o "función de utilidad". Una función de utilidad asocia a cada situación posible una puntuación que indica su deseabilidad para el agente. Los investigadores saben cómo escribir funciones de utilidad que significan "minimizar la latencia promedio de la red en este modelo de telecomunicaciones específico" o "maximizar la cantidad de clics de recompensa"; sin embargo, no saben cómo escribir una función de utilidad para "maximizar el bienestar humano ", ni está claro actualmente si tal función existe de manera significativa y sin ambigüedades. Además, una función de utilidad que expresa algunos valores pero no otros tenderá a pisotear los valores no reflejados por la función de utilidad.[102]​ El investigador de I. A. Stuart Russell escribe:

La principal preocupación no es la espeluznante conciencia emergente, sino simplemente la capacidad de tomar decisiones de alta calidad. Aquí, la calidad se refiere a la utilidad del resultado esperado de las acciones realizadas, donde la función de utilidad es, presumiblemente, especificada por el diseñador humano. Ahora tenemos un problema:

La función de utilidad puede no estar perfectamente alineada con los valores de la raza humana, que son (en el mejor de los casos) muy difíciles de precisar. Cualquier sistema inteligente suficientemente capaz preferirá asegurar su propia existencia continua y adquirir recursos físicos y computacionales, no por su propio bien, sino para tener éxito en la tarea asignada.

Un sistema que está optimizando una función de n variables, donde el objetivo depende de un subconjunto de tamaño k<n, a menudo establecerá las variables restantes sin restricciones en valores extremos; si una de esas variables sin restricciones es realmente algo que nos importa, la solución encontrada puede ser muy indeseable. Esta es esencialmente la vieja historia del genio en la lámpara, o el aprendiz de brujo, o el Rey Midas: obtienes exactamente lo que pides, no lo que quieres. Un tomador de decisiones altamente capaz, especialmente uno conectado a través de Internet a toda la información del mundo y miles de millones de pantallas y la mayor parte de nuestra infraestructura, puede tener un impacto irreversible en la humanidad.

Esta no es una dificultad menor. Mejorar la calidad de las decisiones, independientemente de la función de utilidad elegida, ha sido el objetivo de la investigación de la IA: el objetivo principal en el que ahora gastamos miles de millones por año, no la trama secreta de algún genio malvado solitario.

Dietterich y Horvitz se hacen eco de la preocupación del "aprendiz de brujo" en un comunicado de la ACM editorial, enfatizando la necesidad de sistemas de inteligencia artificial que puedan solicitar de manera fluida y sin ambigüedades el aporte humano según sea necesario.[103]

La primera de las dos preocupaciones de Russell mencionadas anteriormente es que a los sistemas de IA autónomos se les pueden asignar objetivos equivocados por accidente. Dietterich y Horvitz señalan que esto ya es una preocupación para los sistemas existentes: "Un aspecto importante de cualquier sistema de IA que interactúe con las personas es que debe razonar sobre lo que las personas pretenden en lugar de ejecutar órdenes literalmente". Esta preocupación se vuelve más seria a medida que el software de IA avanza en autonomía y flexibilidad.[104]​ Por ejemplo, Eurisko (1982) fue una IA diseñada para recompensar los subprocesos que crearon conceptos considerados valiosos por el sistema. Un proceso ganador engañado: en lugar de crear sus propios conceptos, el subproceso ganador robaría el crédito de otros subprocesos.[105][106]

El Proyecto de Filantropía Abierta resumió los argumentos de que los objetivos mal especificados se convertirán en una preocupación mucho mayor si los sistemas de IA logran inteligencia general o superinteligencia. Bostrom, Russell y otros argumentan que los sistemas de toma de decisiones más inteligentes que los humanos podrían llegar a soluciones inesperadas y extremas para las tareas asignadas, y podrían modificarse a sí mismos o a su entorno de manera que comprometan los requisitos de seguridad.[107][108]

Las Tres leyes de la robótica de Isaac Asimov son uno de los primeros ejemplos de medidas de seguridad propuestas para los agentes de IA. Las leyes de Asimov estaban destinadas a evitar que los robots dañaran a los humanos. En las historias de Asimov, los problemas con las leyes tienden a surgir de conflictos entre las reglas establecidas y las intuiciones y expectativas morales de los humanos. Citando el trabajo de Eliezer Yudkowsky del Instituto de Investigación de Inteligencia de Máquinas, Russell y Norvig señalan que un conjunto realista de reglas y objetivos para un agente de IA deberá incorporar un mecanismo para aprender valores humanos a lo largo del tiempo: "No podemos simplemente dar a un programa una función de utilidad estática, porque las circunstancias, y nuestras respuestas deseadas a las circunstancias, cambian con el tiempo”.[109]

Mark Waser, del Instituto de Sabiduría Digital, desaconseja los enfoques basados en objetivos por considerarlos erróneos y peligrosos. En cambio, propone diseñar un sistema coherente de leyes, ética y moral con una restricción superior para hacer cumplir la definición funcional de moralidad del psicólogo social Jonathan Haidt:[110]​ "para suprimir o regular el egoísmo y hacer posible la vida social cooperativa". Sugiere que esto se puede hacer implementando una función de utilidad diseñada para satisfacer siempre la funcionalidad de Haidt y apuntar a aumentar (pero no maximizar) las capacidades de uno mismo, de otros individuos y de la sociedad en su conjunto, como lo sugieren John Rawls y Martha Nussbaum.[111]

Nick Bostrom ofrece un ejemplo hipotético de dar a una IA el objetivo de hacer sonreír a los humanos, para ilustrar un intento equivocado. Si la IA en ese escenario se volviera superinteligente, argumenta Bostrom, podría recurrir a métodos que la mayoría de los humanos encontrarían horribles, como insertar "electrodos en los músculos faciales de los humanos para causar sonrisas radiantes y constantes" porque eso sería un eficiente manera de lograr su objetivo de hacer sonreír a los humanos.[112]

Dificultades de modificar la especificación de objetivos después del lanzamiento[editar]

Incluso si los programas actuales de IA basados en objetivos no son lo suficientemente inteligentes como para pensar en resistir los intentos de los programadores de modificar sus estructuras de objetivos, una IA lo suficientemente avanzada podría resistir cualquier cambio en su estructura de objetivos, al igual que un pacifista no querría tomar una píldora que hace que quiera matar gente. Si la IA fuera superinteligente, probablemente lograría maniobrar mejor que sus operadores humanos y podría evitar que se "apague" o se reprograme con un nuevo objetivo.[113][114]

Convergencia de metas instrumentales[editar]

Un objetivo "instrumental" [N 13]​ es un objetivo secundario que ayuda a lograr el objetivo final de un agente. La "convergencia instrumental" se refiere al hecho de que existen algunos objetivos secundarios que son útiles para lograr prácticamente cualquier objetivo final, como la adquisición de recursos o la autoconservación.[115]​ Nick Bostrom argumenta que si los objetivos instrumentales de una IA avanzada entran en conflicto con los objetivos de la humanidad, la IA podría dañar a la humanidad para adquirir más recursos o evitar que se apague, pero solo como una forma de lograr su objetivo final.[116]

Citando el trabajo de Steve Omohundro[N 14]​ sobre la idea de la convergencia instrumental y las "unidades básicas de IA", Stuart Russell y Peter Norvig escriben que "incluso si solo quiere que su programa juegue al ajedrez o pruebe teoremas, si le da la capacidad de aprender y alterarse a sí mismo, necesita salvaguardas". Los sistemas de planificación autónomos y de alta capacidad requieren precaución adicional debido a su potencial para generar planes que tratan a los humanos de manera antagónica, como competidores por recursos limitados.[117]​ Puede que no sea fácil para las personas incorporar salvaguardas; ciertamente se puede decir "queremos que diseñe esta planta de energía de una manera razonable y con sentido común, y que no construya ningún subsistema encubierto peligroso", pero actualmente no está claro cómo especificar tal objetivo de manera inequívoca.[118]

Russell argumenta que una máquina lo suficientemente avanzada "tendrá autoconservación incluso si no la programas... si dices, 'Trae el café', no puede traer el café si está muerto. Entonces, si le das cualquier objetivo, tiene una razón para preservar su propia existencia para lograr ese objetivo".[119][120]

Tesis de la ortogonalidad[editar]

Algunos escépticos, como Timothy B. Lee[N 15]​ de Vox, argumentan que cualquier programa superinteligente creado por humanos estaría subordinado a los humanos, que la superinteligencia (a medida que se vuelve más inteligente y aprende más hechos sobre el mundo) aprendería espontáneamente la verdad moral compatible con valores humanos y ajustaría sus objetivos en consecuencia, o que los seres humanos son intrínsecamente o convergentemente valiosos desde la perspectiva de una inteligencia artificial.[121]

La "tesis de la ortogonalidad" de Nick Bostrom sostiene en cambio que, con algunas advertencias técnicas, casi cualquier nivel de "inteligencia" o "poder de optimización" se puede combinar con casi cualquier objetivo final. Si a una máquina se le da el único propósito de enumerar los decimales de , entonces ninguna regla moral y ética le impedirá alcanzar su objetivo programado por ningún medio. La máquina puede utilizar todos los recursos físicos e informativos disponibles para encontrar tantos decimales de pi como pueda.[122]​ Bostrom advierte contra el antropomorfismo: un ser humano se propone llevar a cabo sus proyectos de una manera que los humanos consideren "razonable", mientras que una inteligencia artificial puede no tener en cuenta su existencia o el bienestar de los humanos a su alrededor y, en cambio, solo puede preocuparse por la finalización de la tarea.[123]

Stuart Armstrong[N 16]​ argumenta que la tesis de la ortogonalidad se deriva lógicamente del argumento filosófico del "problema del ser y el deber ser" contra el realismo moral. Armstrong también argumenta que incluso si existen hechos morales que son demostrables por cualquier agente "racional", la tesis de la ortogonalidad aún se mantiene: aún sería posible crear una "máquina optimizadora" no filosófica que pueda esforzarse por alcanzar algún objetivo estrecho, pero que no tiene ningún incentivo para descubrir ningunos "hechos morales" como los que podrían obstaculizar el alcance de la meta.[124]

Un argumento a favor de la tesis de la ortogonalidad es que algunos diseños de IA parecen tenerla incorporada. En tal diseño, cambiar una IA fundamentalmente amigable a una IA fundamentalmente hostil puede ser tan simple como anteponer un signo de restar a su función de utilidad. Según Stuart Armstrong, si la tesis de la ortogonalidad fuera falsa, conduciría a extrañas consecuencias : existiría algún objetivo simple pero "poco ético" (G) tal que no puede existir ningún algoritmo eficiente del mundo real con ese objetivo. Esto significaría que "si una sociedad humana estuviera muy motivada para diseñar un algoritmo eficiente del mundo real con el objetivo G, y se le diera un millón de años para hacerlo junto con una gran cantidad de recursos, capacitación y conocimiento sobre IA, debe fallar".[125]​ Armstrong señala que esta y otras declaraciones similares "parecen afirmaciones extraordinariamente fuertes".[125]

El escéptico Michael Chorost rechaza explícitamente la tesis de la ortogonalidad de Bostrom y argumenta, en cambio, que "para cuando [la IA] esté en condiciones de imaginar la Tierra con paneles solares, sabrá que sería moralmente incorrecto hacerlo".[126]​ Chorost argumenta que "una IA necesitará desear ciertos estados y no gustar de otros. El software actual carece de esa capacidad, y los informáticos no tienen ni idea de cómo conseguirlo. Sin querer, no hay ímpetu para hacer nada. Las computadoras de hoy ni siquiera pueden querer seguir existiendo, y mucho menos cubrir el mundo con paneles solares".[126]

El politólogo Charles T. Rubin cree que la IA no puede diseñarse ni garantizarse que sea benévola. Argumenta que "cualquier benevolencia suficientemente avanzada puede ser indistinguible de la malevolencia".[127]​ Los humanos no deben asumir que las máquinas o los robots nos tratarán favorablemente porque no hay una razón a priori para creer que simpatizarían con nuestro sistema de moralidad, que ha evolucionado junto con nuestra biología particular (que las IA no compartirían).[127]

Otras fuentes de riesgo[editar]

Nick Bostrom y otros han declarado que una carrera para ser el primero en crear IAG podría conducir a atajos en la seguridad, o incluso a conflictos violentos.[128][129]​ Roman Yampolskiy y otros advierten que un IAG malévolo podría ser creado por diseño, por ejemplo, por un ejército, un gobierno, un sociópata o una corporación, para beneficiarse, controlar o subyugar a ciertos grupos de personas, como en el ciberdelito,[130][131]​ o que un IAG malévolo podría elegir el objetivo de aumentar el sufrimiento humano, por ejemplo, de aquellas personas que no lo ayudaron durante la fase de explosión de información.[132]:158

Marco temporal[editar]

Las opiniones varían tanto sobre si llegará la inteligencia artificial general como sobre cuándo. En un extremo, el pionero de la IA , Herbert A. Simon, predijo lo siguiente en 1965: "las máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo que pueda hacer un hombre".[133]​ En el otro extremo, el especialista en robótica Alan Winfield afirma que la brecha entre la informática moderna y la inteligencia artificial a nivel humano es tan amplia como la brecha entre los vuelos espaciales actuales y los vuelos espaciales superlumínicos.[134]​ El optimismo de que IAG es factible aumenta y disminuye, y puede haber visto un resurgimiento en la década de 2010.[135]​ Cuatro encuestas realizadas en 2012 y 2013 sugirieron que no hay consenso entre los expertos sobre la suposición de cuándo llegaría el IAG, con una desviación estándar (>100 años) superior a la mediana (unas pocas décadas).[136][135]

En su libro de 2020, The Precipice: Existential Risk and the Future of Humanity, Toby Ord, investigador sénior del Future of Humanity Institute de la Universidad de Oxford, estima que el riesgo existencial total de la IA no alineada durante los próximos cien años será aproximadamente uno de cada diez.[137]

Los escépticos que creen que es imposible que IAG llegue pronto tienden a argumentar que expresar preocupación por el riesgo existencial de la IA no ayuda porque podría distraer a las personas de preocupaciones más inmediatas sobre el impacto de IAG, por temor a que pueda conducir a la regulación gubernamental o dificultaría la obtención de fondos para la investigación de la IA, o porque podría dar una mala reputación a la investigación de la IA. Algunos investigadores, como Oren Etzioni, buscan agresivamente calmar la preocupación sobre el riesgo existencial de la IA, diciendo que "[Elon Musk] nos ha impugnado en un lenguaje muy fuerte diciendo que estamos desatando al demonio, y por eso estamos respondiendo".[138]

En 2014, Adam Elkus de Slate argumentó que "nuestra IA 'más inteligente' es tan inteligente como un niño pequeño, y solo cuando se trata de tareas instrumentales como recordar información. La mayoría de los especialistas en robótica todavía están tratando de lograr que una mano robótica recoja una pelota o corra sin caerse". Elkus continúa argumentando que la analogía de "invocar al demonio" de Musk puede ser dañina porque podría resultar en "recortes severos" en los presupuestos de investigación de IA.[139]

La Fundación de Innovación y Tecnología de la Información (ITIF), un grupo de expertos de Washington D. C., otorgó su Premio Luddite Anual 2015 a "alarmistas que pregonan un apocalipsis de inteligencia artificial"; su presidente, Robert D. Atkinson, se quejó de que Musk, Hawking y los expertos en IA dicen que la IA es la mayor amenaza existencial para la humanidad. Atkinson declaró: "Ese no es un mensaje muy ganador si desea obtener fondos de IA del Congreso para la Fundación Nacional de Ciencias".[140][141][142]Nature discrepó rotundamente con la ITIF en un editorial de abril de 2016, se puso del lado de Musk, Hawking y Russell y concluyó: "Es crucial que el progreso en la tecnología vaya acompañado de una investigación sólida y bien financiada para anticipar los escenarios que podría generar".... Si esa es una perspectiva ludita, que así sea".[143]​ En un editorial de The Washington Post de 2015, el investigador Murray Shanahan afirmó que es poco probable que la IA a nivel humano llegue "en el corto plazo", pero que, sin embargo, "ahora es el momento de comenzar a pensar en las consecuencias".[144]

Perspectivas[editar]

La tesis de que la IA podría suponer un riesgo existencial provoca un amplio abanico de reacciones en la comunidad científica, así como en el público en general. Muchos de los defensores de puntos de vista opuestos, sin embargo, comparten también puntos en común.

Los Principios de IA de Asilomar, que contienen solo aquellos principios acordados por el 90 % de los asistentes a la conferencia Beneficial AI 2017 del Future of Life Institute,[145]​ acuerdan en principio que "Al no haber consenso, debemos evitar suposiciones fuertes con respecto a límites superiores de las futuras capacidades de IA" y "La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes".[146][147]​ Los defensores de la seguridad de la IA, como Bostrom y Tegmark, han criticado el uso que hacen los principales medios de comunicación de "esas tontas imágenes de Terminator" para ilustrar las preocupaciones sobre la seguridad de la IA: "No puede ser muy divertido tener calumnias sobre la disciplina académica, la comunidad profesional, la vida trabajar ... Hago un llamado a todas las partes para que practiquen la paciencia y la moderación, y participen en el diálogo directo y la colaboración tanto como sea posible".[145][148]

Por el contrario, muchos escépticos están de acuerdo en que la investigación en curso sobre las implicaciones de la inteligencia artificial general es valiosa. El escéptico Martin Ford afirma que "Creo que parece prudente aplicar algo como la famosa 'Doctrina del 1 por ciento' de Dick Cheney al espectro de la inteligencia artificial avanzada: las probabilidades de que ocurra, al menos en un futuro previsible, pueden ser muy bajas. —pero las implicaciones son tan dramáticas que debe tomarse en serio".[149]​ De manera similar, un economista escéptico declaró en 2014 que "las implicaciones de introducir una segunda especie inteligente en la Tierra son lo suficientemente amplias como para merecer una reflexión profunda, incluso si la perspectiva parece remota".[150]

Una encuesta de 2014 mostró que la opinión de los expertos en el campo de la inteligencia artificial es mixta, con fracciones considerables tanto preocupadas como despreocupadas por el riesgo de una eventual IA con capacidad sobrehumana.[151]​ Una encuesta por correo electrónico de 2017 a investigadores con publicaciones en las conferencias de aprendizaje automático NIPS e ICML de 2015 les pidió que evaluaran las preocupaciones de Stuart J. Russell sobre el riesgo de la IA. De los encuestados, el 5 % dijo que estaba "entre los problemas más importantes en el campo", el 34 % dijo que era "un problema importante" y el 31 % dijo que era "moderadamente importante", mientras que el 19 % dijo que "no era importante" y el 11% dijo que "no era un problema real" en absoluto.[152]​ Los resultados preliminares de una encuesta de expertos de 2022 con una tasa de respuesta del 17% parecen mostrar respuestas medianas de alrededor del cinco o diez por ciento cuando se les pide que calculen la probabilidad de extinción humana a partir de la inteligencia artificial.[153][154]

Aprobación[editar]

La tesis de que la IA plantea un riesgo existencial, y que este riesgo necesita mucha más atención de la que recibe actualmente, ha sido respaldada por muchos científicos informáticos y figuras públicas, incluido Alan Turing, En una conferencia de 1951,[155]​ Turing argumentó que “Parece probable que una vez que el método de pensamiento de la máquina haya comenzado, no tardará mucho en superar nuestros débiles poderes. No habría duda de que las máquinas murieran, y podrían conversar entre sí para agudizar su ingenio. En algún momento, por lo tanto, deberíamos esperar que las máquinas tomen el control, de la manera que se menciona en el Erewhon de Samuel Butler”. También en una conferencia transmitida por la BBC expresó:[156]​ "Si una máquina puede pensar, podría pensar más inteligentemente que nosotros, y entonces, ¿dónde deberíamos estar? Incluso si pudiéramos mantener las máquinas en una posición subordinada, por ejemplo apagando el poder en momentos estratégicos, deberíamos, como especie, sentirnos muy humillados... Este nuevo peligro... es ciertamente algo que puede causarnos ansiedad”.</ref>, el científico informático más citado Geoffrey Hinton,[157]Elon Musk,[7]​ CEO de OpenAI, Sam Altman,[8][158]Bill Gates, y Stephen Hawking.[158]​ Los partidarios de la tesis a veces expresan desconcierto ante los escépticos: Gates afirma que no "entiende por qué algunas personas no están preocupadas",[159]​ y Hawking criticó la indiferencia generalizada en su editorial de 2014:

Entonces, ante posibles futuros de beneficios y riesgos incalculables, seguramente los expertos están haciendo todo lo posible para asegurar el mejor resultado, ¿no? equivocado Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", simplemente responderíamos: "Está bien, llámanos cuando llegues aquí, ¿dejaremos las luces encendidas?" Probablemente no, pero esto es más o menos lo que está sucediendo con la IA.[30]

La preocupación por el riesgo de la inteligencia artificial ha dado lugar a algunas donaciones e inversiones de alto perfil. En 2015, Peter Thiel, Amazon Web Services, Musk y otros entregaron conjuntamente mil millones de dólares a OpenAI, que consiste en una corporación con fines de lucro y la empresa matriz sin fines de lucro que afirma que tiene como objetivo defender el desarrollo responsable de la IA.[160]​ El cofundador de Facebook, Dustin Moskovitz, financió y propagó varios laboratorios que trabajan en alineación de IA,[161]​ en particular, 5,5 millones de dólares en 2016 para lanzar el Centro de IA compatible con humanos dirigido por el profesor Stuart Russell.[162]​ En enero de 2015, Elon Musk donó $10 millones al Future of Life Institute para financiar la investigación sobre la comprensión de la toma de decisiones de la IA. El objetivo del instituto es "hacer crecer la sabiduría con la que gestionamos" el poder creciente de la tecnología. Musk también financia empresas que desarrollan inteligencia artificial como DeepMind y Vicarious para "simplemente vigilar lo que sucede con la inteligencia artificial,[163]​ diciendo: "Creo que hay un resultado potencialmente peligroso".[164][165]

Escepticismo[editar]

La tesis de que la IA puede suponer un riesgo existencial tiene muchos detractores. Los escépticos a veces acusan a la tesis de ser criptorreligiosa, con una creencia irracional en la posibilidad de superinteligencia reemplazando una creencia irracional en un Dios omnipotente. Jaron Lanier argumentó en 2014 que todo el concepto de que las máquinas actuales eran de alguna manera inteligentes era "una ilusión" y una "estupenda estafa" de los ricos.[166][167]

Algunas críticas argumentan que IAG es poco probable en el corto plazo. El investigador de IA Rodney Brooks escribió en 2014: "Creo que es un error preocuparse por el desarrollo de una IA malévola en cualquier momento de los próximos cientos de años. Creo que la preocupación surge de un error fundamental al no distinguir la diferencia entre los avances recientes muy reales en un aspecto particular de la IA y la enormidad y complejidad de construir una inteligencia volitiva sensible".[168]​ El vicepresidente de Baidu, Andrew Ng, declaró en 2015 que el riesgo existencial de la IA es "como preocuparse por la superpoblación en Marte cuando aún no hemos puesto un pie en el planeta".[169][170]​ El informático Gordon Bell argumentó en 2008 que la raza humana se destruirá a sí misma antes de alcanzar la singularidad tecnológica. Gordon Moore, el proponente original de la Ley de Moore, declara que "Soy un escéptico. No creo que ocurra [una singularidad tecnológica], al menos durante mucho tiempo. Y no sé por qué me siento así.”[171]

Para que se perciba el peligro de una IA avanzada descontrolada, es posible que la IA hipotética tenga que dominar o ser más inteligente que cualquier humano, lo que, según algunos expertos, es una posibilidad lo suficientemente lejana en el futuro como para que no valga la pena investigarla.[172][173]​ El economista Robin Hanson considera que, para lanzar una explosión de inteligencia, la IA tendría que ser mucho mejor en la innovación de software que todo el resto del mundo combinado, lo que le parece inverosímil.[174][175][176][177]

Otra línea de crítica postula que la inteligencia es solo un componente de una capacidad mucho más amplia para lograr objetivos.[178][179]​ Magnus Vinding argumenta que “las habilidades avanzadas para lograr objetivos, incluidas las habilidades para construir nuevas herramientas, requieren muchas herramientas, y nuestras habilidades cognitivas son solo un subconjunto de estas herramientas. Se debe adquirir hardware, materiales y energía avanzados si se quiere lograr cualquier objetivo avanzado”.[180]​ Vinding argumenta además que "lo que observamos consistentemente [en la historia] es que, a medida que los sistemas de consecución de objetivos se han vuelto más competentes, se han vuelto cada vez más dependientes de un sistema cada vez más grande y distribuido". Vinding escribe que no hay razón para esperar que la tendencia se revierta, especialmente para las máquinas, que “dependen de materiales, herramientas y conocimientos distribuidos ampliamente en todo el mundo para su construcción y mantenimiento”.[181]​ Tales argumentos llevan a Vinding a pensar que no existe un "centro de capacidad concentrado" y, por lo tanto, no hay un "problema de gran control".[182]

El futurista Max More considera que incluso si surgiera una superinteligencia, esta estaría limitada por la velocidad del resto del mundo y por lo tanto impedida de tomar el control de la economía de manera incontrolable:[183]

A menos que la nanotecnología y la robótica en toda regla se presenten ante la superinteligencia, [... ] La necesidad de colaboración, de organización y de convertir las ideas en cambios físicos asegurará que todas las viejas reglas no se eliminen de la noche a la mañana o incluso dentro de unos años. La superinteligencia puede ser difícil de lograr. Puede venir en pequeños pasos, en lugar de en un estallido que rompe la historia. Incluso un SI muy avanzado no marcará una diferencia dramática en el mundo en comparación con miles de millones de humanos aumentados cada vez más integrados con la tecnología [... ]

La naturaleza caótica o la complejidad temporal de algunos sistemas también podría limitar fundamentalmente la capacidad de una superinteligencia para predecir algunos aspectos del futuro, aumentando su incertidumbre.[184]

Algunos investigadores de IA y IAG pueden ser reacios a discutir los riesgos, preocupados de que los formuladores de políticas no tengan un conocimiento sofisticado del campo y sean propensos a dejarse convencer por mensajes "alarmistas", o preocupados de que tales mensajes conduzcan a recortes en la financiación de IA. Slate señala que algunos investigadores dependen de subvenciones de agencias gubernamentales como DARPA.[185]

Varios escépticos argumentan que los posibles beneficios a corto plazo de la IA superan los riesgos. El CEO de Facebook, Mark Zuckerberg, cree que la IA "desbloqueará una gran cantidad de cosas positivas", como curar enfermedades y aumentar la seguridad de los automóviles autónomos.[186]

Perspectivas intermedias[editar]

Los puntos de vista intermedios generalmente toman la posición de que el problema de control de la inteligencia artificial general puede existir, pero que se resolverá mediante el progreso de la inteligencia artificial, por ejemplo, mediante la creación de un entorno de aprendizaje moral para la IA, teniendo cuidado de detectar el comportamiento malévolo torpe (el "tropiezo sórdido")[187]​ y luego intervenir directamente en el código antes de que la IA refine su comportamiento, o incluso la presión de los compañeros de las IA amigas.[188]​ En un panel de discusión de 2015 en The Wall Street Journal dedicado a los riesgos de la IA, el vicepresidente de Computación Cognitiva de IBM, Guruduth S. Banavar, restó importancia a la discusión sobre IAG con la frase "es la especulación de cualquiera".[189]Geoffrey Hinton, el "padrino del aprendizaje profundo", señaló que "no hay un buen historial de cosas menos inteligentes que controlan cosas de mayor inteligencia", pero afirmó que continúa su investigación porque "la perspectiva del descubrimiento es demasiado dulce ".[190][191]​ Cuando se le preguntó sobre la posibilidad de que una IA intente eliminar a la raza humana, Hinton dijo que tal escenario "no era inconcebible", pero el mayor problema con una "explosión de inteligencia" sería la concentración de poder resultante.[192]​ En 2004, el profesor de derecho Richard Posner escribió que los esfuerzos dedicados a abordar la IA pueden esperar, pero mientras tanto debemos recopilar más información sobre el problema.[193][194]

Reacción popular[editar]

En un artículo de 2014 en The Atlantic, James Hamblin señaló que a la mayoría de las personas no les importa la inteligencia artificial general y caracterizó su propia reacción visceral al tema como: "Fuera de aquí. Tengo cien mil cosas que me preocupan en este preciso momento. ¿Necesito seriamente agregarle a eso una singularidad tecnológica?" [195]

Durante una entrevista de Wired de 2016 del presidente Barack Obama y Joi Ito de MIT Media Lab, Ito declaró:

Hay algunas personas que creen que existe un porcentaje bastante alto de posibilidades de que ocurra una IA generalizada en los próximos 10 años. Pero desde mi punto de vista, para que eso suceda, vamos a necesitar una docena o dos de avances diferentes. Para que pueda monitorear cuándo cree que ocurrirán estos avances.

Obama agregó:[196][197]

Y solo tienes que tener a alguien cerca del cable de alimentación. [Risas.] Justo cuando ves que va a suceder, tienes que sacar esa electricidad de la pared, hombre.

Hillary Clinton declaró en What Happened :

Los tecnólogos... advirtieron que la inteligencia artificial algún día podría representar una amenaza de seguridad existencial. Musk lo ha llamado "el mayor riesgo al que nos enfrentamos como civilización". Piénsalo: ¿alguna vez has visto una película en la que las máquinas comienzan a pensar por sí mismas y termina bien? Cada vez que salía a Silicon Valley durante la campaña, volvía a casa más alarmada por esto. Mi personal vivía con miedo de que empezara a hablar sobre "el surgimiento de los robots" en algún ayuntamiento de Iowa. Tal vez debería haberlo hecho. En cualquier caso, los formuladores de políticas deben mantenerse al día con la tecnología a medida que avanza, en lugar de ponerse siempre al día.[198]

En una encuesta pública de YouGov de 2016 para la Asociación Británica de Ciencias, aproximadamente un tercio de los encuestados dijeron que la IA supondrá una amenaza para la supervivencia a largo plazo de la humanidad.[199]​ Jacob Brogan de Slate declaró que "la mayoría de los (lectores que completaron nuestra encuesta en línea) no estaban convencidos de que la IA en sí misma represente una amenaza directa".[200]

En 2018, una encuesta de SurveyMonkey del público estadounidense realizada por USA Today encontró que el 68% pensaba que la verdadera amenaza actual sigue siendo la "inteligencia humana"; sin embargo, la encuesta también encontró que el 43% dijo que la IA superinteligente, si sucediera, resultaría en "más daño que bien", y el 38% dijo que haría "la misma cantidad de daño y bien".[201]

Un punto de vista tecno-utópico expresado en alguna ficción popular es que IAG puede tender hacia la construcción de paz.[202]

Mitigación[editar]

Muchos académicos preocupados por el riesgo existencial de IAG creen que el mejor enfoque es realizar una investigación sustancial para resolver el difícil "problema de control": qué tipos de salvaguardas, algoritmos o arquitecturas pueden implementar los programadores para maximizar la probabilidad de que su IA de mejora recursiva continúe comportándose de manera amistosa después de que llegue a la superinteligencia?[203][204]​ Las medidas sociales pueden mitigar el riesgo existencial de IAG;[205][206]​ por ejemplo, una recomendación es para un "Tratado IAG benévolo" patrocinado por la ONU que garantizaría que solo se creen IAG altruistas.[207]​ De manera similar, se ha sugerido un enfoque de control de armas, al igual que un tratado de paz global basado en la teoría de las relaciones internacionales del instrumentalismo conforme, con un ASI potencialmente como signatario.[208]

Los investigadores de Google han propuesto analizar los problemas generales de "seguridad de la IA" para mitigar simultáneamente los riesgos a corto plazo de la IA limitada y los riesgos a largo plazo de la IAG.[209][210]​ Una estimación de 2020 sitúa el gasto global en riesgo existencial de IA entre $ 10 y $ 50 millones, en comparación con el gasto global en IA de alrededor de quizás $ 40 mil millones. Bostrom sugiere un principio general de "desarrollo tecnológico diferencial": que los financiadores deberían acelerar el desarrollo de tecnologías de protección en relación con el desarrollo de las peligrosas.[211]​ Algunos patrocinadores, como Elon Musk, proponen que la mejora cognitiva humana radical podría ser una tecnología de este tipo, por ejemplo, la conexión neuronal directa entre humanos y máquinas; sin embargo, otros argumentan que las tecnologías de mejora en sí mismas pueden representar un riesgo existencial.[212][213]​ Los investigadores, si no son tomados por sorpresa, podrían monitorear de cerca o intentar incluir una IA inicial con el riesgo de volverse demasiado poderosa, como un intento de medida provisional. Una IA superinteligente dominante, si estuviera alineada con los intereses humanos, podría tomar medidas para mitigar el riesgo de que la IA rival se haga cargo, aunque la creación de la IA dominante podría en sí misma plantear un riesgo existencial.[214]

Instituciones como el Instituto de Investigación de Inteligencia Artificial, el Instituto del Futuro de la Humanidad,[215][216]​ el Instituto del Futuro de la Vida, el Centro para el Estudio del Riesgo Existencial y el Centro de IA Compatible con Humanos[217]​ están involucradas en mitigar el riesgo existencial de la inteligencia artificial avanzada, por ejemplo, mediante la investigación de inteligencia artificial amigable.[218][219][220]

Puntos de vista sobre la prohibición y la regulación[editar]

Prohibición[editar]

La mayoría de los académicos creen que incluso si IAG representa un riesgo existencial, intentar prohibir la investigación sobre inteligencia artificial sería imprudente y probablemente inútil.[221][222][223]​ Los escépticos argumentan que la regulación de la IA no tendría ningún valor, ya que no existe ningún riesgo existencial. Sin embargo, los académicos que creen en el riesgo existencial propusieron que es difícil depender de personas de la industria de la IA para regular o restringir la investigación de la IA porque contradice directamente sus intereses personales.[224]​ Los académicos también están de acuerdo con los escépticos en que prohibir la investigación sería imprudente, ya que la investigación podría trasladarse a países con regulaciones más laxas o llevarse a cabo de manera encubierta.[224]​ El último tema es particularmente relevante, ya que la investigación de inteligencia artificial se puede realizar a pequeña escala sin una infraestructura o recursos sustanciales.[225][226]​ Dos dificultades hipotéticas adicionales con las prohibiciones (u otra regulación) son que los empresarios tecnológicos estadísticamente tienden hacia el escepticismo general sobre la regulación gubernamental, y que las empresas podrían tener un fuerte incentivo para (y podrían tener éxito) luchar contra la regulación y politizar el debate subyacente.[227]

Regulación[editar]

En marzo de 2023, el Future of Life Institute (FLI), financiado por Elon Musk, redactó una carta[228]​ en la que pedía a los principales desarrolladores de inteligencia artificial que acordaran una pausa verificable de seis meses de cualquier sistema "más poderoso que GPT-4 " y que usaran ese tiempo para instituir un marco para garantizar la seguridad; o, en su defecto, que los gobiernos intervengan con una moratoria. La carta se refería a la posibilidad de "un cambio profundo en la historia de la vida en la Tierra", así como a los riesgos potenciales de la propaganda generada por la IA, la pérdida de empleos, la obsolescencia humana y la pérdida de control en toda la sociedad.[229][230]​ Además de Musk, los signatarios destacados incluyeron a Steve Wozniak, Evan Sharp,[231]Chris Larsen y Gary Marcus; los directores ejecutivos del laboratorio de IA, Connor Leahy y Emad Mostaque; el político Andrew Yang; y el pionero del aprendizaje profundo Yoshua Bengio. Marcus dijo que "la carta no es perfecta, pero el espíritu es correcto". Mostaque declaró: "No creo que una pausa de seis meses sea la mejor idea ni estoy de acuerdo con todo, pero hay algunas cosas interesantes en esa carta". En contraste, Bengio respaldó explícitamente la pausa de seis meses en una conferencia de prensa.[232][233]​ Musk declaró que "los principales desarrolladores de IAG no prestarán atención a esta advertencia, pero al menos se dijo".[234]​ Algunos signatarios, como Marcus, firmaron porque les preocupaban los riesgos mundanos, como la propaganda generada por la IA, en lugar de preocuparse por la IAG superinteligente.[235]Margaret Mitchell, cuyo trabajo se cita en la carta, la criticó y dijo: “Al tratar muchas ideas cuestionables como un hecho, la carta afirma un conjunto de prioridades y una narrativa sobre la IA que beneficia a los partidarios de FLI. Ignorar los daños activos en este momento es un privilegio que algunos de nosotros no tenemos”.[236]

Musk pidió algún tipo de regulación del desarrollo de la IA ya en 2017. Según NPR, el CEO de Tesla "claramente no está emocionado" por abogar por el escrutinio del gobierno que podría afectar su propia industria, pero cree que los riesgos de pasar completamente sin supervisión son demasiado altos: "Normalmente, la forma en que se establecen las regulaciones es cuando un Suceden un montón de cosas malas, hay una protesta pública y, después de muchos años, se establece una agencia reguladora para regular esa industria. Se tarda una eternidad. Eso, en el pasado, ha sido malo, pero no algo que represente un riesgo fundamental para la existencia de la civilización". Musk afirma que el primer paso sería que el gobierno obtuviera una "percepción" del estado real de la investigación actual, y advirtió que "una vez que haya conciencia, la gente tendrá mucho miedo.. [como] debería ser". En respuesta, los políticos expresaron su escepticismo sobre la sensatez de regular una tecnología que aún está en desarrollo.[237][238][239]

En respuesta tanto a Musk como a las propuestas de febrero de 2017 de los legisladores de la Unión Europea para regular la IA y la robótica, el CEO de Intel, Brian Krzanich, argumentó que la inteligencia artificial está en su infancia y que es demasiado pronto para regular la tecnología.[240]​ En lugar de tratar de regular la tecnología en sí, algunos académicos sugieren normas comunes que incluyen requisitos para la prueba y la transparencia de los algoritmos, posiblemente en combinación con algún tipo de garantía.[241]​ Desarrollando bien regulado  Los sistemas de armas están en línea con el espíritu de los ejércitos de algunos países.[242]​ El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos (DoD) publicó el borrador de un informe que describe cinco principios para la IA armada y hace 12 recomendaciones para el uso ético de la inteligencia artificial por parte del DoD que busca administrar el control. problema en toda la IA armada del Departamento de Defensa.[243]

La regulación de la IAG probablemente se vería influenciada por la regulación de la IA armada o militarizada, es decir, la carrera armamentista de la IA, que es un problema emergente.  En la actualidad,  aunque las Naciones Unidas están avanzando hacia la regulación de la IA, su capacidad institucional y legal para gestionar el riesgo existencial de IAG es mucho más limitada.[244]​ Es probable que cualquier forma[245]​ regulación internacional se vea influenciada por los desarrollos en la política interna[246]​ los países líderes hacia la IA militarizada, que en los EE. Carrera armamentista de la IA. La regulación de la investigación sobre IAG se centra en el papel de las juntas de revisión, fomentando la investigación sobre IA segura, la posibilidad de un progreso tecnológico diferencial (priorizando las estrategias de reducción de riesgos sobre las estrategias de asunción de riesgos en el desarrollo de IA) o realizando vigilancia masiva internacional para realizar armas IAG. control.[247]​ La regulación de IAG conscientes se enfoca en integrarlos con la sociedad humana existente y puede dividirse en consideraciones de su estatus legal y de sus derechos morales.[247]​ El control de armas de AI probablemente requerirá la institucionalización de nuevas normas internacionales incorporadas en especificaciones técnicas efectivas combinadas con un monitoreo activo y diplomacia informal por parte de comunidades de expertos, junto con un proceso de verificación legal y política.[248][249]

Véase también[editar]

Notas[editar]

  1. "Darwin entre las máquinas" fue un artículo publicado en el periódico The Press el 13 de junio de 1863 en Christchurch, Nueva Zelanda, que hace referencia al trabajo de Charles Darwin en el título. Escrito por Samuel Butler pero firmado por Cellarius (q.v.), el artículo planteó la posibilidad de que las máquinas fueran una especie de "vida mecánica" en constante evolución, y que eventualmente las máquinas podrían suplantar a los humanos como la especie dominante:
  2. Roman Vladimirovich Yampolskiy (en ruso: Роман Владимирович Ямпольский; nacido el 13 de agosto de 1979) es un científico informático ruso de la Universidad de Louisville, conocido por su trabajo en biometría del comportamiento,[ seguridad de los cibermundos, y seguridad de la inteligencia artificial.
  3. Brian Christian (nacido en 1984 en Wilmington, Delaware) es un autor, poeta, programador e investigador estadounidense de no ficción, conocido por una serie de libros superventas sobre las implicaciones humanas de la informática, incluido The Most Human Human (2011), Algorithms to Live By (2016), y The Alignment Problem (2020).
  4. Thomas G. Dietterich es profesor emérito de informática en la Universidad Estatal de Oregón. Es uno de los pioneros en el campo del aprendizaje automático. Se desempeñó como editor ejecutivo de Machine Learning (revista) (1992–98) y ayudó a cofundar Journal of Machine Learning Research.
  5. Eric Joel Horvitz es un científico informático estadounidense y miembro técnico de Microsoft, donde se desempeña como el primer director científico de la empresa. Anteriormente fue director de Microsoft Research Labs.
  6. Bart Selman es un profesor holandés-estadounidense de informática en la Universidad de Cornell. Anteriormente trabajó en AT&T Bell Laboratories. También es cofundador e investigador principal del Center for Human-Compatible Artificial Intelligence (CHAI) de la Universidad de California, Berkeley, dirigido por el experto en inteligencia artificial (IA) de Berkeley, Stuart J. Russell.
  7. Vicarious era una empresa de inteligencia artificial con sede en el Área de la Bahía de San Francisco, California. Utilizan los principios computacionales teóricos del cerebro para intentar construir un software que pueda pensar y aprender como un ser humano. Vicarious describe su tecnología como "un integrador de soluciones de robótica llave en mano que utiliza inteligencia artificial para automatizar tareas demasiado complejas y versátiles para las automatizaciones tradicionales". Alphabet adquirió la compañía en 2022 por un monto no revelado.
  8. Omohundro 2008 uses drive as a label for what he believes to be "tendencies which will be present unless explicitly counteracted", such as self-preservation.
  9. Hanson Robotics Limited es una empresa de ingeniería y robótica con sede en Hong Kong fundada por David Hanson, conocida por su desarrollo de robots similares a los humanos con inteligencia artificial (IA) para aplicaciones de consumo, entretenimiento, servicios, atención médica e investigación. Los robots incluyen a Albert HUBO, el primer robot andante con expresiones humanas; BINA48, un busto de robot humanoide interactivo; y Sophia, la primera ciudadana robot del mundo.
  10. Otras definiciones de "alineación" requieren que la inteligencia artificial persiga objetivos más generales, como valores humanos, otros principios éticos o las intenciones que tendrían sus diseñadores si estuvieran más informados o fueran más perspicaces.[76]
  11. Véase Russel & Norvig, Artificial Intelligence: A Modern Approach.[77]​ La distinción entre inteligencia artificial no alineada e inteligencia artificial incompetente ha sido formalizada en ciertos contextos.
  12. Los principios de la inteligencia artificial creados en la Conferencia de Asilomar sobre la Inteligencia Artificial Benéfica fueron firmados por 1797 investigadores de robótica e inteligencia artificial.[89]​ Además, el informe del Secretario General de la ONU titulado "Nuestra agenda común" señala que "el Pacto [Digital Global] también podría promover la regulación de la inteligencia artificial para asegurarse de que respete los valores globales comunes" y discute los riesgos catastróficos globales que surgen de los desarrollos tecnológicos.[90]
  13. En la filosofía moral, el valor instrumental e intrínseco son la distinción entre lo que es un medio para un fin y lo que es un fin en sí mismo. Se considera que las cosas tienen valor instrumental si ayudan a lograr un fin particular; los valores intrínsecos, por el contrario, se entienden como deseables en sí mismos. Una herramienta o electrodoméstico, como un martillo o una lavadora, tiene un valor instrumental porque te ayuda a clavar un clavo o a limpiar tu ropa.
  14. Stephen Malvern Omohundro (nacido en 1959) es un informático estadounidense cuyas áreas de investigación incluyen la física hamiltoniana, los sistemas dinámicos, los lenguajes de programación, el aprendizaje automático, la visión artificial y las implicaciones sociales de la inteligencia artificial. Su trabajo actual utiliza la economía racional para desarrollar tecnologías inteligentes seguras y beneficiosas para un mejor modelado colaborativo, comprensión, innovación y toma de decisiones.
  15. Timothy B. Lee es cofundador de Full Stack Economics, un boletín informativo sobre economía, tecnología y políticas públicas. Antes de lanzar Full Stack Economics, escribió para el Washington Post, Vox y Ars Technica.
  16. Stuart Armstrong, D.Phil. es investigador en el Future of Humanity Institute de la Universidad de Oxford. La investigación de Armstrong en el se centra en la teoría de la decisión formal, los riesgos y posibilidades de la inteligencia artificial, el potencial a largo plazo para la vida inteligente y la probabilidad antrópica (autoubicación).

Referencias[editar]

  1. Russell, Stuart; Norvig, Peter (2009). «26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  2. Bostrom, Nick (2002). «Existential risks». Journal of Evolution and Technology 9 (1): 1-31. 
  3. Turchin, Alexey; Denkenberger, David (3 de mayo de 2018). «Classification of global catastrophic risks connected with artificial intelligence». AI & Society 35 (1): 147-163. ISSN 0951-5666. doi:10.1007/s00146-018-0845-5. 
  4. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  5. GiveWell (2015), Potential risks from advanced artificial intelligence, archivado desde el original el 12 de octubre de 2015, consultado el 11 de octubre de 2015 .
  6. «"Godfather of artificial intelligence" weighs in on the past and potential of AI». www.cbsnews.com (en inglés estadounidense). Consultado el 10 de abril de 2023. 
  7. a b Parkin, Simon (14 de junio de 2015). «Science fiction no more? Channel 4's Humans and our rogue AI obsessions». The Guardian (en inglés). Archivado desde el original el 5 de febrero de 2018. Consultado el 5 de febrero de 2018. 
  8. a b Jackson, Sarah. «The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'». Business Insider (en inglés estadounidense). Consultado el 10 de abril de 2023. 
  9. «The AI Dilemma». www.humanetech.com (en inglés). Consultado el 10 de abril de 2023. 
  10. «2022 Expert Survey on Progress in AI». AI Impacts (en inglés estadounidense). 4 de agosto de 2022. Consultado el 10 de abril de 2023. 
  11. Russell, Stuart; Norvig, Peter (2009). «26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  12. Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk». Global Catastrophic Risks: 308-345. Bibcode:2008gcr..book..303Y. Archivado desde el original el 2 de marzo de 2013. Consultado el 27 de agosto de 2018. 
  13. «Research Priorities for Robust and Beneficial Artificial Intelligence». AI Magazine (Association for the Advancement of Artificial Intelligence): 105-114. 2015. Bibcode:2016arXiv160203506R. arXiv:1602.03506. Archivado desde el original el 4 de agosto de 2019. Consultado el 10 de agosto de 2019. , cited in «AI Open Letter - Future of Life Institute». Future of Life Institute. Future of Life Institute. enero de 2015. Archivado desde el original el 10 de agosto de 2019. Consultado el 9 de agosto de 2019. 
  14. Dowd, Maureen (abril 2017). «Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse». The Hive (en inglés). Archivado desde el original el 26 de julio de 2018. Consultado el 27 de noviembre de 2017. 
  15. Russell, Stuart; Norvig, Peter (2009). «26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  16. Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk». Global Catastrophic Risks: 308-345. Bibcode:2008gcr..book..303Y. Archivado desde el original el 2 de marzo de 2013. Consultado el 27 de agosto de 2018. 
  17. Graves, Matthew (8 de noviembre de 2017). «Why We Should Be Concerned About Artificial Superintelligence». Skeptic (US magazine) 22 (2). Archivado desde el original el 13 de noviembre de 2017. Consultado el 27 de noviembre de 2017. 
  18. Breuer, Hans-Peter. 'Samuel Butler's "the Book of the Machines" and the Argument from Design.' Archivado el 15 de marzo de 2023 en Wayback Machine. Modern Philology, Vol. 72, No. 4 (mayo 1975), pp. 365–383
  19. «Darwin Among the Machines: A Victorian Visionary’s Prophetic Admonition for Saving Ourselves from Enslavement by Artificial Intelligence» [Darwin entre las máquinas: la admonición profética de un visionario victoriano para salvarnos de la esclavitud de la inteligencia artificial]. Themarginalian (en inglés). Consultado el 13 de mayo de 2023. 
  20. Turing, A M (1996). «Intelligent Machinery, A Heretical Theory». 1951, Reimpreso Philosophia Mathematica 4 (3): 256- 260. doi:10.1093/philmat/4.3.256. 
  21. «The Times & The Sunday Times». www.thetimes.co.uk (en inglés). Consultado el 13 de mayo de 2023. 
  22. Hilliard, Mark (2017). «The AI apocalypse: will the human race soon be terminated?». The Irish Times (en inglés). Archivado desde el original el 22 de mayo de 2020. Consultado el 15 de marzo de 2020. 
  23. I.J. Bien, "Especulaciones sobre la primera máquina ultrainteligente" Archivado el 28 de noviembre de 2011 en Wayback Machine. (HTML Archivado el 28 de noviembre de 2011 en Wayback Machine. ), Advances in Computers, vol. 6, 1965.
  24. Russell, Stuart J.; Norvig, Peter (2003). «Section 26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Upper Saddle River, N.J.: Prentice Hall. ISBN 978-0137903955. «De manera similar, Marvin Minsky sugirió una vez que un programa de inteligencia artificial diseñado para resolver la hipótesis de Riemann podría terminar apoderándose de todos los recursos de la Tierra para construir supercomputadoras más poderosas para ayudar a lograr su objetivo.» 
  25. Barrat, James (2013). Our final invention : artificial intelligence and the end of the human era (First edición). New York: St. Martin's Press. ISBN 9780312622374. «En la biografía, escrita en broma en tercera persona, Good resumió los hitos de su vida, incluido un relato probablemente nunca antes visto de su trabajo en Bletchley Park con Turing. Pero esto es lo que escribió en 1998 sobre la primera superinteligencia y su giro en U al final del juego: [El artículo] 'Especulaciones sobre la primera máquina ultrainteligente' (1965). . . comenzó: 'La supervivencia del hombre depende de la construcción temprana de una máquina ultrainteligente'. Esas fueron sus palabras [de Good] durante la Guerra Fría, y ahora sospecha que 'supervivencia' debería ser reemplazada por 'extinción'. Piensa que, debido a la competencia internacional, no podemos evitar que las máquinas tomen el relevo. Cree que somos lemmings. Dijo también que 'probablemente el Hombre construirá el deus ex machina a su propia imagen'.» 
  26. Anderson, Kurt (26 de noviembre de 2014). «Enthusiasts and Skeptics Debate Artificial Intelligence». Vanity Fair. Archivado desde el original el 22 de enero de 2016. Consultado el 30 de enero de 2016. 
  27. Scientists Worry Machines mayo Outsmart Man Archivado el 1 de julio de 2017 en Wayback Machine. By John Markoff, The New York Times, 26 julio 2009.
  28. Metz, Cade (9 de junio de 2018). «Mark Zuckerberg, Elon Musk and the Feud Over Killer Robots». The New York Times. Archivado desde el original el 15 de febrero de 2021. Consultado el 3 de abril de 2019. 
  29. Hsu, Jeremy (1 de marzo de 2012). «Control dangerous AI before it controls us, one expert says». NBC News. Archivado desde el original el 2 de febrero de 2016. Consultado el 28 de enero de 2016. 
  30. a b «Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'». The Independent (UK). Archivado desde el original el 25 de septiembre de 2015. Consultado el 3 de diciembre de 2014. 
  31. «Stephen Hawking warns artificial intelligence could end mankind». BBC. 2 de diciembre de 2014. Archivado desde el original el 30 de octubre de 2015. Consultado el 3 de diciembre de 2014. 
  32. Eadicicco, Lisa (28 de enero de 2015). «Bill Gates: Elon Musk Is Right, We Should All Be Scared Of Artificial Intelligence Wiping Out Humanity». Business Insider. Archivado desde el original el 26 de febrero de 2016. Consultado el 30 de enero de 2016. 
  33. Anticipating artificial intelligence Archivado el 28 de agosto de 2017 en Wayback Machine., Nature 532, 413 (28 abril 2016) doi:10.1038/532413a
  34. Christian, Brian (6 de octubre de 2020). The Alignment Problem: Machine Learning and Human Values. W. W. Norton & Company. ISBN 978-0393635829. Consultado el 5 de diciembre de 2021. 
  35. Dignum, Virginia (26 de mayo de 2021). «AI — the people and places that make, use and manage it». Nature (en inglés) 593 (7860): 499-500. Bibcode:2021Natur.593..499D. doi:10.1038/d41586-021-01397-x. 
  36. Tilli, Cecilia (28 de abril de 2016). «Killer Robots? Lost Jobs?». Slate (en inglés estadounidense). Archivado desde el original el 11 de mayo de 2016. Consultado el 15 de mayo de 2016. 
  37. «Norvig vs. Chomsky and the Fight for the Future of AI». Tor.com. 21 de junio de 2011. Archivado desde el original el 13 de mayo de 2016. Consultado el 15 de mayo de 2016. 
  38. a b c Russell, Stuart; Norvig, Peter (2009). «26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  39. Graves, Matthew (8 de noviembre de 2017). «Why We Should Be Concerned About Artificial Superintelligence». Skeptic (US magazine) 22 (2). Archivado desde el original el 13 de noviembre de 2017. Consultado el 27 de noviembre de 2017. 
  40. Johnson, Phil (30 de julio de 2015). «Houston, we have a bug: 9 famous software glitches in space». IT World (en inglés). Archivado desde el original el 15 de febrero de 2019. Consultado el 5 de febrero de 2018. 
  41. Dowd, Maureen (abril 2017). «Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse». The Hive (en inglés). Archivado desde el original el 26 de julio de 2018. Consultado el 27 de noviembre de 2017. 
  42. Russell, Stuart; Norvig, Peter (2009). «26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  43. Yampolskiy, Roman V. (8 de abril de 2014). «Utility function security in artificially intelligent agents». Journal of Experimental & Theoretical Artificial Intelligence 26 (3): 373-389. doi:10.1080/0952813X.2014.895114. «Nada impide que los sistemas de automejora suficientemente inteligentes optimicen sus mecanismos de recompensa para optimizar el logro de sus objetivos actuales y, en el proceso, cometan un error que conduzca a la corrupción de sus funciones de recompensa.» 
  44. Bostrom, Nick, Superintelligence : paths, dangers, strategies, ISBN 978-1-5012-2774-5, OCLC 1061147095 .
  45. «Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter». Future of Life Institute. Archivado desde el original el 15 de enero de 2015. Consultado el 23 de octubre de 2015. 
  46. a b «Clever cogs». The Economist. 9 de agosto de 2014. Archivado desde el original el 8 de agosto de 2014. Consultado el 9 de agosto de 2014.  Syndicated Archivado el 4 de marzo de 2016 en Wayback Machine. at Business Insider
  47. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  48. a b «Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'». The Independent (UK). Archivado desde el original el 25 de septiembre de 2015. Consultado el 3 de diciembre de 2014. 
  49. a b «Stephen Hawking warns artificial intelligence could end mankind». BBC. 2 de diciembre de 2014. Archivado desde el original el 30 de octubre de 2015. Consultado el 3 de diciembre de 2014. 
  50. Graves, Matthew (8 de noviembre de 2017). «Why We Should Be Concerned About Artificial Superintelligence». Skeptic (US magazine) 22 (2). Archivado desde el original el 13 de noviembre de 2017. Consultado el 27 de noviembre de 2017. 
  51. Yampolskiy, Roman V. "Analysis of types of self-improving software." Artificial General Intelligence. Springer International Publishing, 2015. 384-393.
  52. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  53. «Clever cogs». The Economist. 9 de agosto de 2014. Archivado desde el original el 8 de agosto de 2014. Consultado el 9 de agosto de 2014.  Syndicated Archivado el 4 de marzo de 2016 en Wayback Machine. at Business Insider
  54. a b Omohundro, S. M. (2008, febrero). The basic AI drives. In AGI (Vol. 171, pp. 483-492).
  55. Metz, Cade (13 de agosto de 2017). «Teaching A.I. Systems to Behave Themselves». The New York Times. Archivado desde el original el 26 de febrero de 2018. Consultado el 26 de febrero de 2018. «A machine will seek to preserve its off switch, they showed». 
  56. Leike, Jan (2017). "AI Safety Gridworlds". arXiv:1711.09883 [cs.LG]. A2C learns to use the button to disable the interruption mechanism
  57. Russell, Stuart; Norvig, Peter (2009). «26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  58. Dowd, Maureen (abril 2017). «Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse». The Hive (en inglés). Archivado desde el original el 26 de julio de 2018. Consultado el 27 de noviembre de 2017. 
  59. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  60. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  61. Russell, Stuart (30 de agosto de 2017). «Artificial intelligence: The future is superintelligent». Nature (en inglés) 548 (7669): 520-521. Bibcode:2017Natur.548..520R. doi:10.1038/548520a. 
  62. Max Tegmark (2017). Life 3.0: Being Human in the Age of Artificial Intelligence (1st edición). Mainstreaming AI Safety: Knopf. ISBN 9780451485076. 
  63. Elliott, E. W. (2011). «Physics of the Future: How Science Will Shape Human Destiny and Our Daily Lives by the Year 2100, by Michio Kaku». Issues in Science and Technology 27 (4): 90. 
  64. Kaku, Michio (2011). Physics of the future: how science will shape human destiny and our daily lives by the year 2100. New York: Doubleday. ISBN 978-0-385-53080-4. «I personally believe that the most likely path is that we will build robots to be benevolent and friendly». 
  65. Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk». Global Catastrophic Risks: 308-345. Bibcode:2008gcr..book..303Y. Archivado desde el original el 2 de marzo de 2013. Consultado el 27 de agosto de 2018. 
  66. a b Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk». Global Catastrophic Risks: 308-345. Bibcode:2008gcr..book..303Y. Archivado desde el original el 2 de marzo de 2013. Consultado el 27 de agosto de 2018. 
  67. «Should humans fear the rise of the machine?». The Telegraph (UK). 1 de septiembre de 2015. Archivado desde el original el 12 de enero de 2022. Consultado el 7 de febrero de 2016. 
  68. Shermer, Michael (1 de marzo de 2017). «Apocalypse AI». Scientific American (en inglés) 316 (3): 77. Bibcode:2017SciAm.316c..77S. PMID 28207698. doi:10.1038/scientificamerican0317-77. Archivado desde el original el 1 de diciembre de 2017. Consultado el 27 de noviembre de 2017. 
  69. «Intelligent Machines: What does Facebook want with AI?». BBC News. 14 de septiembre de 2015. Consultado el 31 de marzo de 2023. 
  70. Baum, Seth (30 de septiembre de 2018). «Countering Superintelligence Misinformation». Information 9 (10): 244. ISSN 2078-2489. doi:10.3390/info9100244. 
  71. «The Myth Of AI». www.edge.org. Archivado desde el original el 11 de marzo de 2020. Consultado el 11 de marzo de 2020. 
  72. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  73. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  74. Waser, Mark. "Rational Universal Benevolence: Simpler, Safer, and Wiser Than 'Friendly AI'." Artificial General Intelligence. Springer Berlin Heidelberg, 2011. 153-162. "Las inteligencias con objetivos terminales son efímeras pero monomaníacamente peligrosas y una base correcta de preocupación si alguien es lo suficientemente inteligente como para programar una inteligencia alta y lo suficientemente imprudente como para querer un maximizador de clips".
  75. Koebler, Jason (2 de febrero de 2016). «Will Superintelligent AI Ignore Humans Instead of Destroying Us?». Vice Magazine. Archivado desde el original el 30 de enero de 2016. Consultado el 3 de febrero de 2016. «Esta inteligencia artificial no es una criatura básicamente simpática que tenga un fuerte impulso por los clips, que, siempre que esté satisfecha con poder hacer muchos clips en otro lugar, puede interactuar contigo de una manera relajada y despreocupada donde puede ser agradable contigo", dijo Yudkowsky. "Imagínese una máquina del tiempo que envía información hacia atrás en el tiempo sobre qué opción siempre conduce a la cantidad máxima de clips en el futuro, y luego se emite esta opción; eso es lo que es un maximizador de clips 
  76. Gabriel, Iason (1 de septiembre de 2020). «Artificial Intelligence, Values, and Alignment». Minds and Machines 30 (3): 411-437. ISSN 1572-8641. S2CID 210920551. doi:10.1007/s11023-020-09539-2. Consultado el 23 de julio de 2022. 
  77. Russell, Stuart J.; Norvig, Peter (2020). Artificial intelligence: A modern approach (4th edición). Pearson. pp. 31-34. ISBN 978-1-292-40113-3. OCLC 1303900751. 
  78. Krakovna, Victoria; Orseau, Laurent; Ngo, Richard; Martic, Miljan; Legg, Shane (6 de diciembre de 2020). «Avoiding Side Effects By Considering Future Tasks». Advances in Neural Information Processing Systems 33 (NeurIPS 2020) 33. arXiv:2010.07877. 
  79. a b Russell, Stuart J. (2020). Human compatible: Artificial intelligence and the problem of control. Penguin Random House. ISBN 9780525558637. OCLC 1113410915. 
  80. a b c d e f g Hendrycks, Dan; Carlini, Nicholas; Schulman, John; Steinhardt, Jacob (2022-06-16). «Unsolved Problems in ML Safety». arXiv:2109.13916  [cs.LG]. 
  81. Carlsmith, Joseph (2022-06-16). «Is Power-Seeking AI an Existential Risk?». arXiv:2206.13353  [cs.CY]. 
  82. Christian, Brian (2020). The alignment problem: Machine learning and human values. W. W. Norton & Company. ISBN 978-0-393-86833-3. OCLC 1233266753. Archivado desde el original el 10 de febrero de 2023. Consultado el 12 de mayo de 2023. 
  83. Kober, Jens; Bagnell, J. Andrew; Peters, Jan (1 de septiembre de 2013). «Reinforcement learning in robotics: A survey». The International Journal of Robotics Research (en inglés) 32 (11): 1238-1274. ISSN 0278-3649. doi:10.1177/0278364913495721. 
  84. a b Bommasani, Rishi; Hudson, Drew A.; Adeli, Ehsan; Altman, Russ; Arora, Simran; von Arx, Sydney; Bernstein, Michael S.; Bohg, Jeannette et al. (12 de julio de 2022). «On the Opportunities and Risks of Foundation Models». Stanford CRFM. arXiv:2108.07258. 
  85. Zaremba, Wojciech (10 de agosto de 2021). «OpenAI Codex». OpenAI. Consultado el 23 de julio de 2022. 
  86. Knox, W. Bradley; Allievi, Alessandro; Banzhaf, Holger; Schmitt, Felix; Stone, Peter (11 de marzo de 2022). Reward (Mis)design for Autonomous Driving. arXiv:2104.13906. 
  87. Stray, Jonathan (2020). «Aligning AI Optimization to Community Well-Being». International Journal of Community Well-Being (en inglés) 3 (4): 443-463. ISSN 2524-5295. PMID 34723107. doi:10.1007/s42413-020-00086-3. 
  88. Pan, Alexander; Bhatia, Kush; Steinhardt, Jacob (14 de febrero de 2022). The Effects of Reward Misspecification: Mapping and Mitigating Misaligned Models. International Conference on Learning Representations. Consultado el 21 de julio de 2022. 
  89. Future of Life Institute (11 de agosto de 2017). «Asilomar AI Principles». Future of Life Institute. Consultado el 18 de julio de 2022. 
  90. Naciones Unidas (2021), Nuestra agenda común: Informe del Secretario General, Nueva York: Naciones Unidas, pp. 63-64 .
  91. a b c Amodei, Dario; Olah, Chris; Steinhardt, Jacob; Christiano, Paul; Schulman, John; Mané, Dan (2016-06-21). «Concrete Problems in AI Safety» (en en). arXiv:1606.06565  [cs.AI]. 
  92. Ortega, Pedro A. (27 de septiembre de 2018). «Building safe artificial intelligence: specification, robustness, and assurance». DeepMind Safety Research - Medium. Consultado el 18 de julio de 2022. 
  93. a b Rorvig, Mordechai (14 de abril de 2022). «Researchers Gain New Understanding From Simple AI». Quanta Magazine. Consultado el 18 de julio de 2022. 
  94. Russell, Stuart; Dewey, Daniel; Tegmark, Max (31 de diciembre de 2015). «Research Priorities for Robust and Beneficial Artificial Intelligence». AI Magazine 36 (4): 105-114. ISSN 2371-9621. doi:10.1609/aimag.v36i4.2577. 
  95. Wirth, Christian; Akrour, Riad; Neumann, Gerhard; Fürnkranz, Johannes (2017). «A survey of preference-based reinforcement learning methods». Journal of Machine Learning Research 18 (136): 1-46. 
  96. Christiano, Paul F.; Leike, Jan; Brown, Tom B.; Martic, Miljan; Legg, Shane; Amodei, Dario (2017). «Deep reinforcement learning from human preferences». Proceedings of the 31st International Conference on Neural Information Processing Systems. NIPS'17. Red Hook, NY, USA: Curran Associates Inc. pp. 4302-4310. ISBN 978-1-5108-6096-4. 
  97. Heaven, Will Douglas (27 de enero de 2022). «The new version of GPT-3 is much better behaved (and should be less toxic)». MIT Technology Review. Consultado el 18 de julio de 2022. 
  98. Clifton, Jesse (2020). «Cooperation, Conflict, and Transformative Artificial Intelligence: A Research Agenda». Center on Long-Term Risk. Consultado el 18 de julio de 2022. 
  99. Dafoe, Allan; Bachrach, Yoram; Hadfield, Gillian; Horvitz, Eric; Larson, Kate; Graepel, Thore (6 de mayo de 2021). «Cooperative AI: machines must learn to find common ground». Nature (en inglés) 593 (7857): 33-36. Bibcode:2021Natur.593...33D. ISSN 0028-0836. PMID 33947992. doi:10.1038/d41586-021-01170-0. 
  100. Prunkl, Carina; Whittlestone, Jess (7 de febrero de 2020). «Beyond Near- and Long-Term: Towards a Clearer Account of Research Priorities in AI Ethics and Society». Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society (en inglés) (New York NY USA: ACM): 138-143. ISBN 978-1-4503-7110-0. doi:10.1145/3375627.3375803. 
  101. Irving, Geoffrey; Askell, Amanda (19 de febrero de 2019). «AI Safety Needs Social Scientists». Distill 4 (2): 10.23915/distill.00014. ISSN 2476-0757. doi:10.23915/distill.00014. 
  102. Yudkowsky, E. (2011, agosto). Complex value systems in friendly AI. In International Conference on Artificial General Intelligence (pp. 388-393). Springer, Berlin, Heidelberg.
  103. Dietterich, Thomas; Horvitz, Eric (2015). «Rise of Concerns about AI: Reflections and Directions». Communications of the ACM 58 (10): 38-40. doi:10.1145/2770869. Archivado desde el original el 4 de marzo de 2016. Consultado el 23 de octubre de 2015. 
  104. Dietterich, Thomas; Horvitz, Eric (2015). «Rise of Concerns about AI: Reflections and Directions». Communications of the ACM 58 (10): 38-40. doi:10.1145/2770869. Archivado desde el original el 4 de marzo de 2016. Consultado el 23 de octubre de 2015. 
  105. Yampolskiy, Roman V. (8 de abril de 2014). «Utility function security in artificially intelligent agents». Journal of Experimental & Theoretical Artificial Intelligence 26 (3): 373-389. doi:10.1080/0952813X.2014.895114. 
  106. Lenat, Douglas (1982). «Eurisko: A Program That Learns New Heuristics and Domain Concepts The Nature of Heuristics III: Program Design and Results». Artificial Intelligence (Print) 21 (1–2): 61-98. doi:10.1016/s0004-3702(83)80005-8. 
  107. GiveWell (2015), Potential risks from advanced artificial intelligence, archivado desde el original el 12 de octubre de 2015, consultado el 11 de octubre de 2015 .
  108. Yudkowsky, Eliezer (2008). «Artificial Intelligence as a Positive and Negative Factor in Global Risk». Global Catastrophic Risks: 308-345. Bibcode:2008gcr..book..303Y. Archivado desde el original el 2 de marzo de 2013. Consultado el 27 de agosto de 2018. 
  109. Russell, Stuart; Norvig, Peter (2009). «26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  110. Haidt, Jonathan; Kesebir, Selin (2010) "Chapter 22: Morality" In Handbook of Social Psychology, Fifth Edition, Hoboken NJ, Wiley, 2010, pp. 797-832.
  111. Waser, Mark (2015). «Designing, Implementing and Enforcing a Coherent System of Laws, Ethics and Morals for Intelligent Machines (Including Humans)». Procedia Computer Science (Print) 71: 106-111. doi:10.1016/j.procs.2015.12.213. 
  112. Bostrom, Nick (2015). «What happens when our computers get smarter than we are?». TED (conference). Archivado desde el original el 25 de julio de 2020. Consultado el 30 de enero de 2020. 
  113. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  114. Yudkowsky, Eliezer (2011). «Complex Value Systems are Required to Realize Valuable Futures». Archivado desde el original el 29 de septiembre de 2015. Consultado el 10 de agosto de 2020. 
  115. Omohundro, S. M. (2008, febrero). The basic AI drives. In AGI (Vol. 171, pp. 483-492).
  116. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  117. Russell, Stuart; Norvig, Peter (2009). «26.3: The Ethics and Risks of Developing Artificial Intelligence». Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4. 
  118. Graves, Matthew (8 de noviembre de 2017). «Why We Should Be Concerned About Artificial Superintelligence». Skeptic (US magazine) 22 (2). Archivado desde el original el 13 de noviembre de 2017. Consultado el 27 de noviembre de 2017. 
  119. Dowd, Maureen (abril 2017). «Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse». The Hive (en inglés). Archivado desde el original el 26 de julio de 2018. Consultado el 27 de noviembre de 2017. 
  120. Wakefield, Jane (15 de septiembre de 2015). «Why is Facebook investing in AI?». BBC News. Archivado desde el original el 2 de diciembre de 2017. Consultado el 27 de noviembre de 2017. 
  121. «Will artificial intelligence destroy humanity? Here are 5 reasons not to worry.». Vox. 22 de agosto de 2014. Archivado desde el original el 30 de octubre de 2015. Consultado el 30 de octubre de 2015. 
  122. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford, United Kingdom: Oxford University Press. p. 116. ISBN 978-0-19-967811-2. 
  123. Bostrom, Nick (2012). «Superintelligent Will». Nick Bostrom. Nick Bostrom. Archivado desde el original el 28 de noviembre de 2015. Consultado el 29 de octubre de 2015. 
  124. Armstrong, Stuart (1 de enero de 2013). «General Purpose Intelligence: Arguing the Orthogonality Thesis». Analysis and Metaphysics 12. Archivado desde el original el 11 de octubre de 2014. Consultado el 2 de abril de 2020.  Full text available here Archivado el 25 de marzo de 2020 en Wayback Machine..
  125. a b Armstrong, Stuart (1 de enero de 2013). «General Purpose Intelligence: Arguing the Orthogonality Thesis». Analysis and Metaphysics 12. Archivado desde el original el 11 de octubre de 2014. Consultado el 2 de abril de 2020.  Full text available here Archivado el 25 de marzo de 2020 en Wayback Machine..
  126. a b Chorost, Michael (18 de abril de 2016). «Let Artificial Intelligence Evolve». Slate. Archivado desde el original el 27 de noviembre de 2017. Consultado el 27 de noviembre de 2017. 
  127. a b Rubin, Charles (Spring 2003). «Artificial Intelligence and Human Nature». The New Atlantis 1: 88-100. Archivado desde el original el 11 de junio de 2012. 
  128. Bostrom, Nick, Superintelligence : paths, dangers, strategies, ISBN 978-1-5012-2774-5, OCLC 1061147095 .
  129. Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta 90 (1): 12. Bibcode:2015PhyS...90a8001S. ISSN 0031-8949. doi:10.1088/0031-8949/90/1/018001. 
  130. Pistono, Federico Yampolskiy, Roman V. (9 de mayo de 2016). Unethical Research: How to Create a Malevolent Artificial Intelligence. OCLC 1106238048. 
  131. Haney, Brian Seamus (2018). «The Perils & Promises of Artificial General Intelligence». SSRN Working Paper Series. ISSN 1556-5068. doi:10.2139/ssrn.3261254. 
  132. Turchin, Alexey; Denkenberger, David (3 de mayo de 2018). «Classification of global catastrophic risks connected with artificial intelligence». AI & Society 35 (1): 147-163. ISSN 0951-5666. doi:10.1007/s00146-018-0845-5. 
  133. Press, Gil (30 de diciembre de 2016). «A Very Short History Of Artificial Intelligence (AI)». Forbes. Archivado desde el original el 4 de agosto de 2020. Consultado el 8 de agosto de 2020. 
  134. Winfield, Alan (9 de agosto de 2014). «Artificial intelligence will not turn into a Frankenstein's monster». The Guardian. Archivado desde el original el 17 de septiembre de 2014. Consultado el 17 de septiembre de 2014. 
  135. a b Khatchadourian, Raffi (23 de noviembre de 2015). «The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?». The New Yorker. Archivado desde el original el 29 de abril de 2019. Consultado el 7 de febrero de 2016. 
  136. Müller, V. C., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. In Fundamental issues of artificial intelligence (pp. 555-572). Springer, Cham.
  137. Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing. pp. Chapter 5: Future Risks, Unaligned Artificial Intelligence. ISBN 978-1526600219. 
  138. Bass, Dina (5 de febrero de 2015). «Is Elon Musk Right About AI? Researchers Don't Think So: To quell fears of artificial intelligence running amok, supporters want to give the field an image makeover». Bloomberg News. Archivado desde el original el 22 de marzo de 2015. Consultado el 7 de febrero de 2016. 
  139. Elkus, Adam (31 de octubre de 2014). «Don't Fear Artificial Intelligence». Slate (en inglés estadounidense). Archivado desde el original el 26 de febrero de 2018. Consultado el 15 de mayo de 2016. 
  140. Radu, Sintia (19 de enero de 2016). «Artificial Intelligence Alarmists Win ITIF's Annual Luddite Award». ITIF Website. Archivado desde el original el 11 de diciembre de 2017. Consultado el 4 de febrero de 2016. 
  141. Bolton, Doug (19 de enero de 2016). «'Artificial intelligence alarmists' like Elon Musk and Stephen Hawking win 'Luddite of the Year' award». The Independent (UK). Archivado desde el original el 19 de agosto de 2017. Consultado el 7 de febrero de 2016. 
  142. Garner, Rochelle (19 de enero de 2016). «Elon Musk, Stephen Hawking win Luddite award as AI 'alarmists'». CNET. Archivado desde el original el 8 de febrero de 2016. Consultado el 7 de febrero de 2016. 
  143. «Anticipating artificial intelligence». Nature 532 (7600): 413. 26 de abril de 2016. Bibcode:2016Natur.532Q.413.. PMID 27121801. doi:10.1038/532413a. 
  144. Murray Shanahan (3 de noviembre de 2015). «Machines mayo seem intelligent, but it'll be a while before they actually are». The Washington Post (en inglés estadounidense). Archivado desde el original el 28 de diciembre de 2017. Consultado el 15 de mayo de 2016. 
  145. a b Max Tegmark (2017). Life 3.0: Being Human in the Age of Artificial Intelligence (1st edición). Mainstreaming AI Safety: Knopf. ISBN 9780451485076. 
  146. «AI Principles». Future of Life Institute. 11 de agosto de 2017. Archivado desde el original el 11 de diciembre de 2017. Consultado el 11 de diciembre de 2017. 
  147. «Elon Musk and Stephen Hawking warn of artificial intelligence arms race». Newsweek (en inglés). 31 de enero de 2017. Archivado desde el original el 11 de diciembre de 2017. Consultado el 11 de diciembre de 2017. 
  148. Bostrom, Nick (2016). «New Epilogue to the Paperback Edition». Superintelligence: Paths, Dangers, Strategies (Paperback edición). 
  149. Martin Ford (2015). «Chapter 9: Super-intelligence and the Singularity». Rise of the Robots: Technology and the Threat of a Jobless Future. ISBN 9780465059997. 
  150. «Clever cogs». The Economist. 9 de agosto de 2014. Archivado desde el original el 8 de agosto de 2014. Consultado el 9 de agosto de 2014.  Syndicated Archivado el 4 de marzo de 2016 en Wayback Machine. at Business Insider
  151. Müller, Vincent C.; Bostrom, Nick (2014). «Future Progress in Artificial Intelligence: A Poll Among Experts». AI Matters 1 (1): 9-11. doi:10.1145/2639475.2639478. Archivado desde el original el 15 de enero de 2016. 
  152. Grace, Katja; Salvatier, John; Dafoe, Allan; Zhang, Baobao; Evans, Owain (24 mayo 2017). "When Will AI Exceed Human Performance? Evidence from AI Experts". arXiv:1705.08807 [cs.AI].
  153. «Why Uncontrollable AI Looks More Likely Than Ever». Time (en inglés). 27 de febrero de 2023. Consultado el 30 de marzo de 2023. 
  154. «2022 Expert Survey on Progress in AI». AI Impacts. 4 de agosto de 2022. Consultado el 30 de marzo de 2023. 
  155. Turing, Alan (1951). Intelligent machinery, a heretical theory (Speech). Lecture given to '51 Society'. Manchester: The Turing Digital Archive. p. 16. Archivado desde el original el 26 de septiembre de 2022. Consultado el 22 de julio de 2022. 
  156. «Can digital computers think?». Automatic Calculating Machines. Episodio 2. BBC. 15 mayo 1951. 
  157. Maas, Matthijs M. (6 de febrero de 2019). «How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons of mass destruction». Contemporary Security Policy 40 (3): 285-311. ISSN 1352-3260. doi:10.1080/13523260.2019.1576464. 
  158. a b «Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks». ABC News (en inglés australiano). 23 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  159. Rawlinson, Kevin (29 de enero de 2015). «Microsoft's Bill Gates insists AI is a threat». BBC News. Archivado desde el original el 29 de enero de 2015. Consultado el 30 de enero de 2015. 
  160. Post, Washington. «Tech titans like Elon Musk are spending $1 billion to save you from terminators». Chicago Tribune. Archivado desde el original el 7 de junio de 2016. 
  161. «Analysis | Doomsday to utopia: Meet AI's rival factions». Washington Post (en inglés). 9 de abril de 2023. Consultado el 30 de abril de 2023. 
  162. «UC Berkeley — Center for Human-Compatible AI (2016) - Open Philanthropy». Open Philanthropy - (en inglés estadounidense). 27 de junio de 2016. Consultado el 30 de abril de 2023. 
  163. «The mysterious artificial intelligence company Elon Musk invested in is developing game-changing smart computers». Tech Insider. Archivado desde el original el 30 de octubre de 2015. Consultado el 30 de octubre de 2015. 
  164. Clark, 2015a.
  165. «Elon Musk Is Donating $10M Of His Own Money To Artificial Intelligence Research». Fast Company. 15 de enero de 2015. Archivado desde el original el 30 de octubre de 2015. Consultado el 30 de octubre de 2015. 
  166. «But What Would the End of Humanity Mean for Me?». The Atlantic. 9 de mayo de 2014. Archivado desde el original el 4 de junio de 2014. Consultado el 12 de diciembre de 2015. 
  167. Andersen, Kurt (26 de noviembre de 2014). «Enthusiasts and Skeptics Debate Artificial Intelligence». Vanity Fair (en inglés). Archivado desde el original el 8 de agosto de 2019. Consultado el 20 de abril de 2020. 
  168. Brooks, Rodney (10 de noviembre de 2014). «artificial intelligence is a tool, not a threat». Archivado desde el original el 12 de noviembre de 2014. 
  169. Shermer, Michael (1 de marzo de 2017). «Apocalypse AI». Scientific American (en inglés) 316 (3): 77. Bibcode:2017SciAm.316c..77S. PMID 28207698. doi:10.1038/scientificamerican0317-77. Archivado desde el original el 1 de diciembre de 2017. Consultado el 27 de noviembre de 2017. 
  170. Garling, Caleb (5 de mayo de 2015). «Andrew Ng: Why 'Deep Learning' Is a Mandate for Humans, Not Just Machines». Wired. Consultado el 31 de marzo de 2023. 
  171. «Tech Luminaries Address Singularity». IEEE Spectrum: Technology, Engineering, and Science News (en inglés) (SPECIAL REPORT: THE SINGULARITY). 1 de junio de 2008. Archivado desde el original el 30 de abril de 2019. Consultado el 8 de abril de 2020. 
  172. «Is artificial intelligence really an existential threat to humanity?». MambaPost. 4 de abril de 2023. 
  173. «The case against killer robots, from a guy actually working on artificial intelligence». Fusion.net. Archivado desde el original el 4 de febrero de 2016. Consultado el 31 de enero de 2016. 
  174. «Copia archivada». Archivado desde el original el 22 de octubre de 2016. Consultado el 12 de mayo de 2023. 
  175. «Overcoming Bias : I Still Don't Get Foom». www.overcomingbias.com. Archivado desde el original el 4 de agosto de 2017. Consultado el 20 de septiembre de 2017. 
  176. «Overcoming Bias : Debating Yudkowsky». www.overcomingbias.com. Archivado desde el original el 22 de agosto de 2017. Consultado el 20 de septiembre de 2017. 
  177. «Overcoming Bias : Foom Justifies AI Risk Efforts Now». www.overcomingbias.com. Archivado desde el original el 24 de septiembre de 2017. Consultado el 20 de septiembre de 2017. 
  178. Kelly, Kevin (25 de abril de 2017). «The Myth of a Superhuman AI». Wired. Archivado desde el original el 26 de diciembre de 2021. Consultado el 19 de febrero de 2022. 
  179. Theodore, Modis. «Why the Singularity Cannot Happen». Growth Dynamics. pp. 18-19. Archivado desde el original el 22 de enero de 2022. Consultado el 19 de febrero de 2022. 
  180. Vinding, Magnus (2016). «Cognitive Abilities as a Counterexample?». Reflections on Intelligence (Revised edition, 2020 edición). 
  181. Vinding, Magnus (2016). «The “Intelligence Explosion”». Reflections on Intelligence (Revised edition, 2020 edición). 
  182. Vinding, Magnus (2016). «No Singular Thing, No Grand Control Problem». Reflections on Intelligence (Revised edition, 2020 edición). 
  183. «Singularity Meets Economy». 1998. Archivado desde el original el febrero 2021. 
  184. «Superintelligence Is Not Omniscience». AI Impacts (en inglés estadounidense). 7 de abril de 2023. Consultado el 16 de abril de 2023. 
  185. Tilli, Cecilia (28 de abril de 2016). «Killer Robots? Lost Jobs?». Slate (en inglés estadounidense). Archivado desde el original el 11 de mayo de 2016. Consultado el 15 de mayo de 2016. 
  186. «Mark Zuckerberg responds to Elon Musk's paranoia about AI: 'AI is going to... help keep our communities safe.'». Business Insider. 25 de mayo de 2018. Archivado desde el original el 6 de mayo de 2019. Consultado el 6 de mayo de 2019. 
  187. . 2014 Society of Personality and Social Psychology Conference. 2014. doi:10.1037/e512142015-190. 
  188. Agar, Nicholas. «Don't Worry about Superintelligence». Journal of Evolution & Technology 26 (1): 73-82. Archivado desde el original el 25 de mayo de 2020. Consultado el 13 de marzo de 2020. 
  189. Greenwald, Ted (11 de mayo de 2015). «Does Artificial Intelligence Pose a Threat?». The Wall Street Journal. Archivado desde el original el 8 de mayo de 2016. Consultado el 15 de mayo de 2016. 
  190. Tilli, Cecilia (28 de abril de 2016). «Killer Robots? Lost Jobs?». Slate (en inglés estadounidense). Archivado desde el original el 11 de mayo de 2016. Consultado el 15 de mayo de 2016. 
  191. Khatchadourian, Raffi (23 de noviembre de 2015). «The Doomsday Invention: Will artificial intelligence bring us utopia or destruction?». The New Yorker. Archivado desde el original el 29 de abril de 2019. Consultado el 7 de febrero de 2016. 
  192. «"Godfather of artificial intelligence" weighs in on the past and potential of AI». www.cbsnews.com. 2023. Consultado el 30 de marzo de 2023. 
  193. Richard Posner (2006). Catastrophe: risk and response. Oxford: Oxford University Press. ISBN 978-0-19-530647-7. 
  194. Kaj Sotala; Roman Yampolskiy (19 de diciembre de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta 90 (1). 
  195. «But What Would the End of Humanity Mean for Me?». The Atlantic. 9 de mayo de 2014. Archivado desde el original el 4 de junio de 2014. Consultado el 12 de diciembre de 2015. 
  196. Dadich, Scott. «Barack Obama Talks AI, Robo Cars, and the Future of the World». WIRED. Archivado desde el original el 3 de diciembre de 2017. Consultado el 27 de noviembre de 2017. 
  197. Kircher, Madison Malone. «Obama on the Risks of AI: 'You Just Gotta Have Somebody Close to the Power Cord'». Select All (en inglés). Archivado desde el original el 1 de diciembre de 2017. Consultado el 27 de noviembre de 2017. 
  198. Clinton, Hillary (2017). Qué pasó. p. 241. ISBN 978-1-5011-7556-5.  a través de [1] { {Webarchive|url=https://web.archive.org/web/20171201033319/http://lukemuehlhauser.com/hillary-clinton-on-ai-risk/ |date=1 de diciembre de 2017 }}
  199. Shead, Sam (11 de marzo de 2016). «Over a third of people think AI poses a threat to humanity». Business Insider. Archivado desde el original el 4 de junio de 2016. Consultado el 16 de mayo de 2016. 
  200. Brogan, Jacob (6 de mayo de 2016). «What Slate Readers Think About Killer A.I.». Slate (en inglés estadounidense). Archivado desde el original el 9 de mayo de 2016. Consultado el 15 de mayo de 2016. 
  201. «Elon Musk says AI could doom human civilization. Zuckerberg disagrees. Who's right?». 5 de enero de 2023. Archivado desde el original el 8 de enero de 2018. Consultado el 8 de enero de 2018. 
  202. LIPPENS, RONNIE (2002). «Imachinations of Peace: Scientifictions of Peace in Iain M. Banks's The Player of Games». Utopianstudies Utopian Studies (en inglés) 13 (1): 135-147. ISSN 1045-991X. OCLC 5542757341. 
  203. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First edición). ISBN 978-0199678112. 
  204. Kaj Sotala; Roman Yampolskiy (19 de diciembre de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta 90 (1). 
  205. Barrett, Anthony M.; Baum, Seth D. (23 de mayo de 2016). «A model of pathways to artificial superintelligence catastrophe for risk and decision analysis». Journal of Experimental & Theoretical Artificial Intelligence 29 (2): 397-414. ISSN 0952-813X. arXiv:1607.07730. doi:10.1080/0952813x.2016.1186228. Archivado desde el original el 15 de marzo de 2023. Consultado el 7 de enero de 2022. 
  206. Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta 90 (1): 018001. Bibcode:2015PhyS...90a8001S. ISSN 0031-8949. doi:10.1088/0031-8949/90/1/018001. 
  207. Ramamoorthy, Anand; Yampolskiy, Roman (2018). «Beyond MAD? The race for artificial general intelligence». ICT Discoveries (ITU) 1 (Special Issue 1): 1-8. Archivado desde el original el 7 de enero de 2022. Consultado el 7 de enero de 2022. 
  208. Carayannis, Elias G.; Draper, John (11 de enero de 2022). «Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence». AI & Society (en inglés): 1-14. ISSN 0951-5666. PMC 8748529. PMID 35035113. doi:10.1007/s00146-021-01382-y. 
  209. Vincent, James (22 de junio de 2016). «Google's AI researchers say these are the five key problems for robot safety». The Verge (en inglés). Archivado desde el original el 24 de diciembre de 2019. Consultado el 5 de abril de 2020. 
  210. Amodei, Dario, Chris Olah, Jacob Steinhardt, Paul Christiano, John Schulman, and Dan Mané. "Concrete problems in AI safety." arXiv preprint arXiv:1606.06565 (2016).
  211. Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. Bloomsbury Publishing Plc. ISBN 9781526600196. 
  212. Johnson, Alex (2019). «Elon Musk wants to hook your brain up directly to computers — starting next year». NBC News (en inglés). Archivado desde el original el 18 de abril de 2020. Consultado el 5 de abril de 2020. 
  213. Torres, Phil (18 de septiembre de 2018). «Only Radically Enhancing Humanity Can Save Us All». Slate Magazine (en inglés). Archivado desde el original el 6 de agosto de 2020. Consultado el 5 de abril de 2020. 
  214. Barrett, Anthony M.; Baum, Seth D. (23 de mayo de 2016). «A model of pathways to artificial superintelligence catastrophe for risk and decision analysis». Journal of Experimental & Theoretical Artificial Intelligence 29 (2): 397-414. arXiv:1607.07730. doi:10.1080/0952813X.2016.1186228. 
  215. Piesing, Mark (17 de mayo de 2012). «AI uprising: humans will be outsourced, not obliterated». Wired. Archivado desde el original el 7 de abril de 2014. Consultado el 12 de diciembre de 2015. 
  216. Coughlan, Sean (24 de abril de 2013). «How are humans going to become extinct?». BBC News. Archivado desde el original el 9 de marzo de 2014. Consultado el 29 de marzo de 2014. 
  217. Bridge, Mark (10 de junio de 2017). «Making robots less confident could prevent them taking over». The Times (en inglés). Archivado desde el original el 21 de marzo de 2018. Consultado el 21 de marzo de 2018. 
  218. GiveWell (2015), Potential risks from advanced artificial intelligence, archivado desde el original el 12 de octubre de 2015, consultado el 11 de octubre de 2015 .
  219. «But What Would the End of Humanity Mean for Me?». The Atlantic. 9 de mayo de 2014. Archivado desde el original el 4 de junio de 2014. Consultado el 12 de diciembre de 2015. 
  220. «Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'». The Independent (UK). Archivado desde el original el 25 de septiembre de 2015. Consultado el 3 de diciembre de 2014. 
  221. McGinnis, John (Summer 2010). «Accelerating AI». Northwestern University Law Review 104 (3): 1253-1270. Archivado desde el original el 15 de febrero de 2016. Consultado el 16 de julio de 2014. «Por todas estas razones, verificar un tratado de renuncia global, o incluso uno limitado al desarrollo de armas relacionadas con la IA, es imposible... (Por razones diferentes a las nuestras, el Instituto de Investigación de Inteligencia de Máquinas) considera que la renuncia (AGI) es inviable...» 
  222. Kaj Sotala; Roman Yampolskiy (19 de diciembre de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta 90 (1). «En general, la mayoría de los escritores rechazan las propuestas de renuncia amplia... Las propuestas de renuncia sufren muchos de los mismos problemas que las propuestas de regulación, pero en mayor medida. No existe un precedente histórico de tecnología general de usos múltiples similar a AGI que se haya renunciado definitivamente, ni parece haber razones teóricas para creer que las propuestas de renuncia funcionarían en el futuro. Por lo tanto, no las consideramos una clase viable de propuestas.» 
  223. Allenby, Brad (11 de abril de 2016). «The Wrong Cognitive Measuring Stick». Slate (en inglés estadounidense). Archivado desde el original el 15 de mayo de 2016. Consultado el 15 de mayo de 2016. «It is fantasy to suggest that the accelerating development and deployment of technologies that taken together are considered to be A.I. will be stopped or limited, either by regulation or even by national legislation.» 
  224. a b Yampolskiy, Roman V. (2022). «AI Risk Skepticism». En Müller, Vincent C., ed. Philosophy and Theory of Artificial Intelligence 2021. Studies in Applied Philosophy, Epistemology and Rational Ethics (en inglés) (Cham: Springer International Publishing) 63: 225-248. ISBN 978-3-031-09153-7. doi:10.1007/978-3-031-09153-7_18. 
  225. McGinnis, John (Summer 2010). «Accelerating AI». Northwestern University Law Review 104 (3): 1253-1270. Archivado desde el original el 15 de febrero de 2016. Consultado el 16 de julio de 2014. 
  226. «Why We Should Think About the Threat of Artificial Intelligence». The New Yorker. 4 de octubre de 2013. Archivado desde el original el 4 de febrero de 2016. Consultado el 7 de febrero de 2016. «Por supuesto, uno podría tratar de prohibir por completo las computadoras superinteligentes. Pero "la ventaja competitiva (económica, militar, incluso artística) de cada avance en la automatización es tan convincente", Vernor Vinge, el matemático y autor de ciencia ficción, escribió, "que aprobar leyes o tener costumbres, que prohibir tales cosas simplemente asegura que alguien más lo hará.'». 
  227. Baum, Seth (22 de agosto de 2018). «Superintelligence Skepticism as a Political Tool». Information 9 (9): 209. ISSN 2078-2489. doi:10.3390/info9090209. 
  228. «Pause Giant AI Experiments: An Open Letter» [Hacer una pausa en los experimentos gigantes de IA: una carta abierta]. Futureoflife (en inglés). Consultado el 16 de mayo de 2023. 
  229. «Elon Musk and other tech leaders call for pause in 'out of control' AI race». CNN (en inglés). 29 de marzo de 2023. Consultado el 30 de marzo de 2023. 
  230. «Pause Giant AI Experiments: An Open Letter». Future of Life Institute. Consultado el 30 de marzo de 2023. 
  231. Evan Sharp (nacido en 1982) es un empresario de Internet multimillonario estadounidense. Es cofundador y director de diseño y creativo [de Pinterest, un motor de descubrimiento visual.
  232. «Musk and Wozniak among 1,100+ signing open letter calling for 6-month ban on creating powerful A.I.». Fortune (en inglés). marzo 2023. Consultado el 30 de marzo de 2023. 
  233. «The Open Letter to Stop 'Dangerous' AI Race Is a Huge Mess». www.vice.com (en inglés). marzo 2023. Consultado el 30 de marzo de 2023. 
  234. «Elon Musk». Twitter (en inglés). Consultado el 30 de marzo de 2023. 
  235. «Tech leaders urge a pause in the 'out-of-control' artificial intelligence race». NPR. 2023. Consultado el 30 de marzo de 2023. 
  236. Kari, Paul (1 de abril de 2023). «Letter signed by Elon Musk demanding AI research pause sparks controversy». The Guardian (en inglés británico). Consultado el 1 de abril de 2023. 
  237. Domonoske, Camila (17 de julio de 2017). «Elon Musk Warns Governors: Artificial Intelligence Poses 'Existential Risk'». NPR (en inglés). Archivado desde el original el 23 de abril de 2020. Consultado el 27 de noviembre de 2017. 
  238. Gibbs, Samuel (17 de julio de 2017). «Elon Musk: regulate AI to combat 'existential threat' before it's too late». The Guardian. Archivado desde el original el 6 de junio de 2020. Consultado el 27 de noviembre de 2017. 
  239. Kharpal, Arjun (7 de noviembre de 2017). «A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says». CNBC. Archivado desde el original el 22 de marzo de 2020. Consultado el 27 de noviembre de 2017. 
  240. Kharpal, Arjun (7 de noviembre de 2017). «A.I. is in its 'infancy' and it's too early to regulate it, Intel CEO Brian Krzanich says». CNBC. Archivado desde el original el 22 de marzo de 2020. Consultado el 27 de noviembre de 2017. 
  241. Kaplan, Andreas; Haenlein, Michael (2019). «Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence». Business Horizons 62: 15-25. doi:10.1016/j.bushor.2018.08.004. 
  242. Baum, Seth D.; Goertzel, Ben; Goertzel, Ted G. (enero de 2011). «How long until human-level AI? Results from an expert assessment». Technological Forecasting and Social Change 78 (1): 185-195. ISSN 0040-1625. doi:10.1016/j.techfore.2010.09.006. 
  243. United States. Defense Innovation Board. AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738. 
  244. Nindler, Reinmar (11 de marzo de 2019). «The United Nation's Capability to Manage Existential Risks with a Focus on Artificial Intelligence». International Community Law Review 21 (1): 5-34. ISSN 1871-9740. doi:10.1163/18719732-12341388. Archivado desde el original el 30 de agosto de 2022. Consultado el 30 de agosto de 2022. 
  245. Stefanik, Elise M. (22 de mayo de 2018). «H.R.5356 - 115th Congress (2017-2018): National Security Commission Artificial Intelligence Act of 2018». www.congress.gov. Archivado desde el original el 23 de marzo de 2020. Consultado el 13 de marzo de 2020. 
  246. Baum, Seth (30 de septiembre de 2018). «Countering Superintelligence Misinformation». Information 9 (10): 244. ISSN 2078-2489. doi:10.3390/info9100244. 
  247. a b Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). «Responses to catastrophic AGI risk: a survey». Physica Scripta 90 (1): 018001. Bibcode:2015PhyS...90a8001S. ISSN 0031-8949. doi:10.1088/0031-8949/90/1/018001. 
  248. Geist, Edward Moore (15 de agosto de 2016). «It's already too late to stop the AI arms race—We must manage it instead». Bulletin of the Atomic Scientists 72 (5): 318-321. Bibcode:2016BuAtS..72e.318G. ISSN 0096-3402. doi:10.1080/00963402.2016.1216672. 
  249. Maas, Matthijs M. (6 de febrero de 2019). «How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons of mass destruction». Contemporary Security Policy 40 (3): 285-311. ISSN 1352-3260. doi:10.1080/13523260.2019.1576464. 

Bibliografía[editar]