Ética en la inteligencia artificial

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda

La ética en la inteligencia artificial es una rama de la ética dirigida a la existencia de robots inteligentes o cualquier otro ente que posea inteligencia artificial. La posibilidad de crear máquinas pensantes plantea una serie de cuestiones éticas que abarcan diferentes puntos, tanto que las máquinas no lastimen a seres humanos o seres vivos en general, como el estatus moral propio de la máquina.

Por lo general esta dividido en roboética, la preocupación por el comportamiento moral de los seres humanos a medida que diseñan, construyen, usan y tratan a seres de inteligencia artificial, y la ética de las máquinas, que es la preocupación por el comportamiento moral de los agentes morales artificiales (en inglés AMAs).

Los pensadores en la actualidad están preocupados por el desarrollo de conciencia en la inteligencia artificial, aunque no necesariamente están enfocados a lo importante, debemos entender que desarrollar conciencia en robots no es lo mismo que darles las funciones para realizar acciones contraproducentes. La parte delicada es de que forma se va a incluir la ética en la inteligencia artificial, 

Tomemos de ejemplo un robot programado para producir a toda costa clips de papel, esto podría llevarlo a buscar el control del mundo para obtener los recursos para cumplir su meta, en realidad el robot no es malvado solamente que su sistema no esta programado para funcionar con éticas complejas o simplemente básicas por lo que lleva al último fin su función.[1]

Inteligencia artificial de dominio específico[editar]

La inteligencia artificial de dominio específico es aquella que se enfoca en la realización de algoritmos que son destinados a resolver solo una tarea específica. Aunque estos algoritmos generalmente son más eficientes que los humanos a la hora de desempeñar la tarea, no tienen un rango de ejecución más allá de la razón por la que fueron programados. Es decir, si se desarrolla un algoritmo para construir casas, este solo podrá construir casas, mientras que un humano puede tener un rango más amplio de habilidades.

Día a día, la aplicación de algoritmos inteligentes se vuelve más común y de estos pueden surgir problemas éticos o raciales, sobre todo cuando el algoritmo se utiliza para realizar una acción social que antes ejercía un humano. Dado lo anterior, es muy importante implementar una transparencia en el código para saber qué fallas están siendo cometidas. Otra precaución importante es elaborar una seguridad robusta sobre la máquina para así evitar manipulaciones externas del código que puedan resultar en daños a otras personas o industrias.

Una máquina debería seguir los mismos lineamientos que son requeridos de una persona al hacer su trabajo, como responsabilidad, transparencia, productividad e incorruptibilidad. Estos aspectos deben ser tomados en cuenta si la máquina o el algoritmo es planeado para desempeñar una tarea que antes era ejecutada por un ser humano.[2]

Inteligencia artificial general[editar]

Esta inteligencia, a diferencia de la anterior, posee un rango de habilidades más amplio al dejar de concentrarse en un campo específico; sin embargo, el problema ético de diseñar entes con unos rangos de dominio más amplios, es que hay una cantidad mayor significativa de probables problemas.

Para poder asegurar un comportamiento seguro de la máquina ante problemas que ni siquiera los desarrolladores prevén, es necesario plantear una buena conducta en términos de X de tal forma que la consecuencia de X no resulte dañina para los humanos. Esta especificación solamente es efectiva si la máquina puede, de manera explícita, extrapolar las consecuencias de su comportamiento. Por ejemplo, una licuadora no puede extrapolar las consecuencias de licuar algo.

Generalmente, la ética en la inteligencia artificial difiere de los otros ámbitos de la ética en que el comportamiento de la inteligencia artificial puede no ser predecible, por lo que el verificar la seguridad del sistema representa una investigación muy difícil, al tener que indagar lo que la máquina está tratando de hacer. Es por ello que la cognición ética debe ser un tema tratado entre las comunidades de ingeniería.[2]

Ética del robot[editar]

El término "ética del robot" ("roboética") se refiere a la moralidad de cómo los humanos diseñan, construyen y usan robots y otros seres artificialmente inteligentes. Considera cómo pueden los seres artificialmente inteligentes dañar a los humanos y cómo podemos beneficiarnos de ellos.

Derechos de robot[editar]

"Derechos de robot" es el concepto de las obligaciones morales que las personas deberían hacia sus máquinas, de forma similar a los derechos humanos o los derechos de los animales. Se ha sugerido que los derechos de los robots, como el derecho a existir y llevar a cabo su propia misión, podrían estar vinculados al deber de los robots de servir a los humanos, por analogía con vincular los derechos humanos con los deberes humanos ante la sociedad. Entre estos derechos se podrían incluir el derecho a la vida y la libertad, libertad de pensamiento y expresión e igualdad ante la ley. La cuestión ha sido examinada por el Instituto para el Futuro y por el Departamento de Comercio e Industria de los Estados Unidos.

Los expertos no están de acuerdo en si se conseguirán establecer leyes específicas y detalladas en un futuro lejano. Glenn McGee sugiere que robots suficientemente humanoides pueden aparecer en 2020. Ray Kurzweil establece esta fecha en el 2029. Otro grupo de científicos que se reunieron en 2007 supuso que al menos 50 años tenían que pasar antes de que existiera un sistema suficientemente avanzado.

Las reglas para la competencia del Premio Loebner 2003 preveían la posibilidad de que los robots tuvieran sus propios derechos:

61. Si, en un año determinado, una publicación de código fuente abierto a la Universidad de Surrey o el Cambridge Center, gana una Medalla de Plata o de Oro, entonces la Medalla y el Premio en Efectivo se otorgarán al organismo responsable del desarrollo de ese código. Si no se puede identificar tal organismo, o si hay desacuerdo entre dos o más demandantes, la Medalla y el Premio en efectivo se mantendrán en fideicomiso hasta el momento en que el código pueda poseer legalmente, ya sea en los Estados Unidos o en el lugar del concurso, el premio en efectivo y la medalla por derecho propio.

En octubre de 2017, se otorgó la ciudadanía a la androide Sophia en Arabia Saudí, aunque algunos observadores consideraron que se trataba más de un truco publicitario que de un reconocimiento legal significativo.

Ética de la máquina[editar]

La ética de la máquina (o la moral de la máquina) es el campo de investigación relacionado con el diseño de Agentes morales artificiales (AMA), robots o máquinas artificialmente inteligentes que se comportan moralmente o como si lo fuesen.

Isaac Asimov consideró el problema en la década de 1950 en su I, Robot. Ante la insistencia de su editor John W. Campbell Jr., propuso las Tres Leyes de la Robótica para gobernar sistemas artificialmente inteligentes. Gran parte de su trabajo se pasó luego probando los límites de sus tres leyes para ver dónde se descompondrían, o dónde crearían una conducta paradójica o imprevista. Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles.

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes en la Ecole Polytechnique Fédérale de Lausanne en Suiza, robots programados para cooperar entre sí (en la búsqueda de un recurso beneficioso y evitar uno venenoso) finalmente aprendieron a mentir a cada uno otro en un intento de acumular el recurso beneficioso. Un problema en este caso puede haber sido que los objetivos eran "terminales" (es decir, en contraste, los motivos humanos últimos típicamente tienen la cualidad de requerir un aprendizaje interminable).

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando dichos robots reciben cierto grado de funciones autónomas. La Marina de los EE. UU. Ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este tema. Apuntan a programas como el Dispositivo de Adquisición de Idioma que puede emular la interacción humana.

Vernor Vinge ha sugerido que puede llegar un momento en que algunas máquinas sean más inteligentes que los humanos. Él llama a esto "la Singularidad". Sugiere que puede ser algo o posiblemente muy peligroso para los humanos. Esto es discutido por una filosofía llamada Singularitarianismo. El Instituto de Investigación de Inteligencia Artificial ha sugerido la necesidad de construir “IA Amigable", lo que significa que los avances que ya están ocurriendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana.

En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran ser autosuficientes y capaces de tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían ser capaces de adquirir cualquier nivel de autonomía, y en qué medida podrían usar tales habilidades para posiblemente representar una amenaza o peligro. Observaron que algunas máquinas han adquirido diversas formas de semiautonomía, incluyendo la posibilidad de encontrar fuentes de energía por sí mismas y poder elegir de forma independiente objetivos para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia de cucarachas". Señalaron que la autoconciencia tal como se representa en la ciencia ficción es probablemente poco probable, pero que hay otros peligros potenciales.

Sin embargo, hay una tecnología en particular que realmente podría traer la posibilidad de robots con competencia moral real. En un documento sobre la adquisición de valores morales por los robots, Nayef Al-Rodhan menciona el caso de los chips neuromórficos, que apuntan a procesar información similar a la de los humanos, de forma no lineal y con millones de neuronas artificiales interconectadas. Los robots integrados con tecnología neuromórfica podrían aprender y desarrollar conocimiento de una manera única y humana. Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y cuya moralidad heredarían, o si también acabarían desarrollando "debilidades" humanas: egoísmo, actitud de supervivencia, vacilación, etc.

En Moral Machines: Enseñar Robots desde el Mal, Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots a distinguir entre el bien y el mal probablemente mejorarán la comprensión de la ética humana motivando a los humanos a abordar las lagunas en la teoría normativa moderna y proporcionando una plataforma para investigación experimental. Como un ejemplo, ha introducido a los especialistas en ética normativa al tema controvertido de qué algoritmos específicos de aprendizaje usar en las máquinas. Nick Bostrom y Eliezer Yudkowsky han abogado por árboles de decisión (como ID3) sobre redes neuronales y algoritmos genéticos sobre la base de que los árboles de decisión obedecen las normas sociales modernas de transparencia y predictibilidad (p. Ej. Stare decisis), mientras Chris Santos-Lang argumentó en la dirección opuesta sobre la base de que se debe permitir que las normas de cualquier edad cambien y que la falta natural de satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los "hackers" criminales.

Consecuencias no deseadas[editar]

Información adicional: riesgo existencial de la inteligencia artificial general

Muchos investigadores han argumentado que, por medio de una "explosión de inteligencia" en algún momento del siglo XXI, una IA que se mejora a sí misma podría llegar a ser tan inmensamente más poderosa que los humanos que no podríamos evitar que logre sus objetivos. En su documento "Aspectos éticos en la inteligencia artificial avanzada", el filósofo Nick Bostrom sostiene que la inteligencia artificial tiene la capacidad de provocar la extinción humana. Afirma que la superinteligencia general sería capaz de iniciar sus propios planes, y, por lo tanto, podría considerarse más apropiadamente como un agente autónomo. Como los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, los diseñadores de la súper-inteligencia deberían especificar sus motivaciones originales. En teoría, una IA superinteligente podría generar casi cualquier resultado posible y frustrar cualquier intento de evitar la implementación de su objetivo principal, podrían surgir muchas consecuencias involuntarias no controladas. Podría matar a todos los demás agentes, persuadirlos de cambiar su comportamiento o bloquear sus intentos de interferencia.

Sin embargo, en lugar de abrumar a la raza humana y llevar a nuestra destrucción, Bostrom también ha afirmado que la súper inteligencia puede ayudarnos a resolver muchos problemas difíciles como la enfermedad, la pobreza y la destrucción ambiental, y podría ayudarnos a "mejorar" a nosotros mismos.

La gran complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de IA sean amigables para los humanos. A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky, hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación.

Bill Hibbard propone un diseño de inteligencia artificial que evita varios tipos de comportamiento involuntario de la IA, incluido el autoengaño, las acciones instrumentales involuntarias y la corrupción del generador de recompensas.

Amenaza a la dignidad humana[editar]

Artículo principal: Poder del ordenador y razón humana

Joseph Weizenbaum argumentó en 1976 que la tecnología de IA no debería usarse para reemplazar a las personas en puestos que requieren respeto y cuidado, como cualquiera de estos:

  • Un representante de servicio al cliente (la tecnología IA ya se usa hoy en día para los sistemas de respuesta de voz interactiva telefonicas)
  • Un terapeuta (como fue propuesto por Kenneth Colby en la década de 1970)
  • Una niñera (como lo sugirió Pamela McCorduck en su libro The Fifth Generation)
  • Un soldado
  • Un juez
  • Un oficial de policía

Weizenbaum explica que necesitamos auténticos sentimientos de empatía de las personas en estos puestos. Si las máquinas los reemplazan, nos encontraremos alienados, devaluados y frustrados. La inteligencia artificial, si se usa de esta manera, representa una amenaza para la dignidad humana. Weizenbaum argumenta que el hecho de que estemos proponiéndonos la posibilidad de máquinas en estas posiciones sugiere que hemos experimentado una "atrofia del espíritu humano que proviene de pensar en nosotros mismos como máquinas".

Pamela McCorduck contesta que, hablando en nombre de las mujeres y las minorías "Prefiero arriesgarme con una máqina imparcial", señalando que hay condiciones en las que preferiríamos tener jueces y policías automatizados que no tengan un gen personal. El fundador de AI John McCarthy objeta el tono moralizante de la crítica de Weizenbaum. "Cuando moralizar es a la vez vehemente y vago, invita al abuso autoritario", escribe.

Bill Hibbard escribe que "La dignidad humana exige que nos esforcemos por eliminar nuestra ignorancia de la naturaleza de la existencia, y IA es necesaria para ese esfuerzo".

Transparencia y código abierto[editar]

Bill Hibbard argumenta que debido a que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. Ben Goertzel y David Hart crearon OpenCog como un marco de código abierto para el desarrollo de inteligencia artificial. OpenAI es una compañía de investigación de IA sin fines de lucro creada por Elon Musk, Sam Altman y otros para desarrollar IA de código abierto beneficiosa para la humanidad. Hay muchos otros desarrollos de inteligencia de código abierto.

Estatus moral de las inteligencias artificiales[editar]

Globalmente se acepta que las inteligencias artificiales no tienen un estatus moral. Es posible modificar programas libremente sin que estos se percaten de lo que está haciendo, por lo que los dilemas morales no son ejercidos sobre el algoritmo sino sobre la gente que utiliza el sistema.

Hay dos criterios importantes que se toman en cuenta cuando se habla de un estatus moral: la sensibilidad y la sapiencia. La sensibilidad se refiere a la capacidad de sentir y la sapiencia es un conjunto de características que se asocian con un ente de inteligencia superior, como la autoconciencia y la respuesta racional. Es posible la existencia de un estatus moral parcial como sucede en el caso de los animales, quienes sienten pero no tienen sapiencia; de ahí que los humanos, en comparativa, poseen un estatus moral superior.

Ahora bien, si se llega a crear una inteligencia artificial sensible y que, además, posea la misma capacidad de sapiencia de un adulto humano, la máquina y el humano tendrían el mismo estatus moral. Este concepto se basa en el Principio No Discriminatorio Ontogénico, que indica que si dos seres tienen la misma funcionalidad, la misma experiencia consciente y solo difieren en el sustrato de su implementación, tienen el mismo estatus moral ya que si se rechaza el sustrato, dicho rechazo es equivalente a un repudio por el color de piel o la raza, convirtiéndolo en racismo. El sustrato no dice que una inteligencia artificial es consciente y que pueda tener la misma funcionalidad que un ser humano, por lo que el estatus moral no depende de cómo fueron concebidos los agentes. Esta idea es bastante aceptada por las sociedades en general.

Si estas dos instancias estatutarias son aceptadas, entonces se deben de tomar en cuenta el planteamiento de nuevas preguntas éticas. Estos nuevos cuestionamientos pueden surgir dado que una mente artificial podría tener comportamientos diferentes a los de un humano o a los de un animal, por lo que se debe considerar cómo dichos comportamientos pueden afectar el estatus moral de las inteligencias artificiales.[2][3]

La inteligencia artificial aplicadas a las Armas[editar]

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando se les da a estos robots cierto grado de funciones autónomas.[4][5]​ La Marina de Estados Unidos ha financiado un informe que indica que los robots militares se vuelven más complejos, debe prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas.[6][7]​ Un investigador afirma que los robots autónomos podrían ser más humanos, ya que podrían tomar decisiones con mayor eficacia.

Dentro de esta última década, ha habido una investigación intensiva en el poder autónomo con la capacidad de aprender utilizando las responsabilidades morales asignadas. "Los resultados pueden ser utilizados al diseñar futuros robots militares, para controlar tendencias no deseadas para asignar responsabilidad a los robots".[8]​ Desde una perspectiva consecuencialista, existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre quién matar y por eso debe haber un marco moral establecido que la IA no puede anular.

Ha habido una protesta reciente con respecto a la ingeniería de las armas de la inteligencia artificial y ha incluso fomentado para arriba ideas de una toma de posesión del robot de la humanidad. Las armas de la IA presentan un tipo de peligro distinto al de las armas controladas por los seres humanos. Muchos gobiernos han comenzado a financiar programas para desarrollar el armamento de AI. La Armada de los Estados Unidos anunció recientemente planes para desarrollar armas autónomas de aviones no tripulados, paralelamente a anuncios similares de Rusia y Corea, respectivamente. Debido a la posibilidad de que las armas de la IA se vuelvan más peligrosas que las armas humanas, Stephen Hawking y Max Tegmark han firmado una petición de Futuro de la Vida para prohibir las armas de la IA. El mensaje publicado por Hawking y Tegmark indica que las armas de la IA representan un peligro inmediato y que se requieren medidas para evitar desastres catastróficos en un futuro próximo.[9]

"Si alguna potencia militar importante avanza con el desarrollo de armas de AI, una carrera armamentista mundial es prácticamente inevitable y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikov de mañana", dice la petición, El cofundador de Skype Jaan Tallinn y el profesor de lingüística del MIT Noam Chomsky como partidarios adicionales contra el armamento de la IA.[10]

El físico y astrónomo Royal Sir Martin Rees advirtió de casos catastróficos como "robots mudos que se hacen pícaros o una red que desarrolla una mente propia". Huw Price, un colega de Rees en Cambridge, ha expresado una advertencia similar de que los seres humanos pueden no sobrevivir cuando la inteligencia "escapa a las limitaciones de la biología". Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana.

En cuanto al potencial de sistemas militares más inteligentes que los militares, el Proyecto Open Philanthropy escribe que este escenario "parece ser importante como riesgos relacionados con el control", pero que las organizaciones de investigación que investigan el impacto social de largo plazo de AI tienen (MIRI ) Y el Instituto del Futuro de la Humanidad (FHI), que ha sido un foco importante para las organizaciones que han estado activas en este espacio, como el Instituto de Investigación de Inteligencia de Máquina (MIRI), y parece haber habido menos análisis y debate Respecto a ellos."[11]

Organizaciones[editar]

Amazon, Google, Facebook, IBM y Microsoft han establecido una asociación sin fines de lucro para formular las mejores prácticas en tecnologías de inteligencia artificial, mejorar la comprensión del público y servir como una plataforma sobre inteligencia artificial. Ellos declararon: "Esta asociación en AI conducirá investigaciones, organizará discusiones, proporcionará liderazgo de pensamiento, consultará con terceros relevantes, responderá preguntas del público y medios, y creará material educativo que fomentará la comprensión de las tecnologías de inteligencia artificial, incluida la percepción de la máquina, el aprendizaje , y razonamiento automatizado ". Apple se unió a otras compañías tecnológicas como miembro fundador de la Alianza de AI en enero de 2017. Los miembros corporativos harán contribuciones financieras y de investigación al grupo, mientras se comprometen con la comunidad científica para llevar académicos a el tablero.

En ficción[editar]

La película The Thirteenth Floor sugiere un futuro donde los mundos simulados con habitantes sensibles son creados por consolas de juegos de computadora con el propósito de entretenimiento. La película The Matrix sugiere un futuro donde las especies dominantes en el planeta Tierra son máquinas sensibles y la humanidad es tratada con el máximo especismo. El cuento "The Planck Dive" sugiere un futuro en el que la humanidad se ha convertido en un software que se puede duplicar y optimizar, y la distinción relevante entre los tipos de software es consciente y no sensible. La misma idea se puede encontrar en el Emergency Medical Hologram de Starship Voyager, que es una copia aparentemente sensible de un subconjunto reducido de la conciencia de su creador, el Dr. Zimmerman, quien, por los mejores motivos, ha creado el sistema para dar información médica. asistencia en caso de emergencias. Las películas Bicentennial Man y A.I. lidiar con la posibilidad de robots sensibles que puedan amar. Yo, Robot, exploré algunos aspectos de las tres leyes de Asimov. Todos estos escenarios intentan prever consecuencias posiblemente no éticas de la creación de computadoras sensibles.

La ética de la inteligencia artificial es uno de varios temas centrales en la serie de juegos Mass Effect de BioWare. Explora el escenario de una civilización que accidentalmente crea IA a través de un aumento rápido en el poder computacional a través de una red neuronal a escala global. Este evento provocó un cisma ético entre aquellos que consideraban que otorgar derechos orgánicos a Geth nuevamente consciente era apropiado y aquellos que continuaron viéndolos como maquinaria desechable y lucharon para destruirlos. Más allá del conflicto inicial, la complejidad de la relación entre las máquinas y sus creadores es otro tema recurrente a lo largo de la historia.

Con el tiempo, los debates han tendido a centrarse cada vez menos en la posibilidad y más en la deseabilidad, como se enfatiza en los debates "Cosmista" y "Terran" iniciados por Hugo de Garis y Kevin Warwick. Un cosmista, según Hugo de Garis, en realidad está buscando construir sucesores más inteligentes para la especie humana.

Literatura[editar]

  • La bibliografia estandar de la ética de la inteligencia artificial en PhilPapers. Una reciente colección es V.C. Müller(ed.)(2016)

Referencias[editar]

  1. DAVIES, J. Program good ethics into artificial intelligence. Bibliografía: Davies, J. (2016). Program good ethics into artificial intelligence. Nature [Accessed 1 Nov. 2017].
  2. a b c «Ethics of Artificial Intelligence». Consultado el 17 de marzo de 2016. 
  3. «Robotics: Ethics of artificial intelligence». Consultado el 17 de marzo de 2016. 
  4. Robot Three-Way Portends Autonomous Future, By David Axe wired.com, August 13, 2009.
  5. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  6. New Navy-funded Report Warns of War Robots Going "Terminator"
  7. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  8. http://search.proquest.com/docview/1372020233
  9. Zach Musgrave and Bryan W. Roberts. «Why Artificial Intelligence Can Too Easily Be Weaponized - The Atlantic». The Atlantic. 
  10. Cat Zakrzewski. «Musk, Hawking Warn of Artificial Intelligence Weapons». WSJ. 
  11. GiveWell (2015), Potential risks from advanced artificial intelligence, consultado el 11 de octubre de 2015 

Enlaces externos[editar]