Diferencia entre revisiones de «Ética en la inteligencia artificial»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
En el apartado de Responsabilidad en los vehículos autónomos, comentario sobre el dilema del tranvía
Referencias al apartado de Responsabilidad en los vehículos autónomos
Línea 43: Línea 43:


== Responsabilidad en los vehículos autónomos ==
== Responsabilidad en los vehículos autónomos ==
A medida que el uso generalizado de los coches autónomos se vuelve cada vez más inminente, se deben abordar nuevos desafíos planteados por los vehículos completamente autónomos. Es común encontrar noticias o debates sobre la responsabilidad legal, en caso de que dichos automóviles tengan accidentes. En un informe en el que un automóvil sin conductor atropelló a un peatón, el conductor estaba dentro del automóvil, pero los controles estaban completamente en manos de las computadoras. Esto llevó a un dilema sobre quién fue responsable del accidente.
A medida que el uso generalizado de los [[Vehículo autónomo|coches autónomos]] se vuelve cada vez más inminente, se deben abordar nuevos desafíos planteados por los vehículos completamente autónomos.<ref>{{Cita noticia|título=Google's Self-Driving Car Caused Its First Crash|url=https://www.wired.com/2016/02/googles-self-driving-car-may-caused-first-crash/|periódico=Wired|fechaacceso=2023-04-08|issn=1059-1028|idioma=en-US|nombre=Alex|apellidos=Davies}}</ref><ref>{{Cita noticia|título=Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian|url=https://www.theguardian.com/technology/2018/mar/19/uber-self-driving-car-kills-woman-arizona-tempe|periódico=The Guardian|fecha=2018-03-19|fechaacceso=2023-04-08|issn=0261-3077|idioma=en-GB|nombre=Sam|apellidos=Levin}}</ref> Es común encontrar noticias o debates sobre la responsabilidad legal, en caso de que dichos automóviles tengan accidentes.<ref>{{Cita web|url=https://futurism.com/who-responsible-when-self-driving-car-accident|título=Who is responsible when a self-driving car has an accident?|fechaacceso=2023-04-08|sitioweb=Futurism}}</ref><ref>{{Cita web|url=https://knowledge.wharton.upenn.edu/article/automated-car-accidents/|título=Autonomous Car Crashes: Who -- or What -- Is to Blame?|fechaacceso=2023-04-08|sitioweb=Knowledge at Wharton|idioma=en-US}}</ref> En un informe en el que un automóvil sin conductor atropelló a un peatón, el conductor estaba dentro del automóvil, pero los controles estaban completamente en manos de las computadoras. Esto llevó a un dilema sobre quién fue responsable del accidente.


En otro incidente el 18 de marzo de 2018, Elaine Herzberg fue golpeada y muerta por un Uber autónomo en Arizona. En este caso, el automóvil automatizado era capaz de detectar automóviles y ciertos obstáculos para navegar autónomamente por la carretera, pero no podía anticipar a un peatón en medio de la vía. Esto planteó la pregunta de quién debería ser considerado responsable de su muerte: el conductor, el peatón, la compañía de automóviles o el gobierno.
En otro incidente el 18 de marzo de 2018, [[:en:Death_of_Elaine_Herzberg|Elaine Herzberg]] fue golpeada y muerta por un [[Uber]] autónomo en [[Arizona]]. En este caso, el automóvil automatizado era capaz de detectar automóviles y ciertos obstáculos para navegar autónomamente por la carretera, pero no podía anticipar a un peatón en medio de la vía. Esto planteó la pregunta de quién debería ser considerado responsable de su muerte: el conductor, el peatón, la compañía de automóviles o el gobierno.<ref>{{Cita libro|título=Who Killed Elaine Herzberg?|url=https://doi.org/10.1007/978-3-030-32320-2_1|editorial=Springer International Publishing|fecha=2020|fechaacceso=2023-04-08|isbn=978-3-030-32320-2|páginas=1–6|doi=10.1007/978-3-030-32320-2_1|idioma=en|nombre=Jack|apellidos=Stilgoe|nombre-editor=Jack|apellido-editor=Stilgoe}}</ref>


Estas situaciones son mas habituales en las pruebas que realizan los científicos, que buscan la mejor manera de afrontar este dilema, conocido como el dilema del tranvía, es un problema ético hipotético que presenta la elección entre sacrificar la vida de una o varias personas para salvar a otras, consiste en un tranvía fuera de control que se dirige hacia un grupo de personas. La decisión que se tome puede tener implicaciones éticas y morales, y es objeto de discusión en filosofía, ética y psicología moral. Hay cientos de variantes del dilema y la respuesta humana depende de varios factores tales como la cultura, los sesgos y sobre todo la situación hipotética que se plantea respecto a las vidas en juego. Trasladar todos estos conocimientos a una máquina para que decida a quien salvar es un quebradero de cabeza para los investigadores, ya que para ello necesitarían dotar a la inteligencia artificial de cierta moralidad para que puede deliberar su respuesta, sin embargo, ¿Es ético dotar a una máquina de moralidad para decidir sobre la vida de las personas? y si es así, ¿Quién debe controlar la moral de la IA?.
Estas situaciones son mas habituales en las pruebas que realizan los científicos, que buscan la mejor manera de afrontar este dilema, conocido como el dilema del tranvía, es un problema ético hipotético que presenta la elección entre sacrificar la vida de una o varias personas para salvar a otras, consiste en un tranvía fuera de control que se dirige hacia un grupo de personas. La decisión que se tome puede tener implicaciones éticas y morales, y es objeto de discusión en filosofía, ética y psicología moral. Hay cientos de variantes del dilema y la respuesta humana depende de varios factores tales como la cultura, los sesgos y sobre todo la situación hipotética que se plantea respecto a las vidas en juego. Trasladar todos estos conocimientos a una máquina para que decida a quien salvar es un quebradero de cabeza para los investigadores<ref>{{Cita web|url=https://verne.elpais.com/verne/2018/10/25/articulo/1540460932_169194.html|título=El MIT recurre al dilema filosófico del tranvía para saber a quién podrá atropellar un coche autónomo|fechaacceso=2023-04-08|apellido=País|nombre=Ediciones El|fecha=2018-10-25|sitioweb=Verne|idioma=es}}</ref>, ya que para ello necesitarían dotar a la inteligencia artificial de cierta moralidad para que puede deliberar su respuesta, sin embargo, ¿Es ético dotar a una máquina de moralidad para decidir sobre la vida de las personas? y si es así, ¿Quién debe controlar la moral de la IA?.<ref>{{Cita web|url=https://www.revistagq.com/noticias/tecnologia/articulos/coches-autonomos-dilema-del-tranvia/31533|título=El dilema del coche autónomo: ¿cómo es la moral de una inteligencia artificial?|fechaacceso=2023-04-08|apellido=Nast|nombre=Condé|fecha=2018-11-05|sitioweb=GQ España|idioma=es-ES}}</ref><ref>{{Cita web|url=https://www.newtral.es/los-futuros-coches-autonomos-podrian-tomar-decisiones-eticas-el-dilema-del-tranvia-en-las-carreteras/20191025/|título=¿Los futuros coches autónomos podrían tomar decisiones éticas? El 'dilema del tranvía', en las carreteras|fechaacceso=2023-04-08|apellido=Espinosa|nombre=Jesús|fecha=2019-10-25|sitioweb=Newtral|idioma=es}}</ref>


Las compañías fabricantes de estos vehículos evitan ser los responsables en dar una solución ante este tipo de dilemas, la opción de quitar la vida a los peatones a cambio de proteger la del conductor o la de preferir salvar a los peatones a cambio de sacrificar al dueño del vehículo provocaría controversia y problemas a la compañía. Por ello optan por una vía general tal y como han declarado algunos desarrolladores de estos proyectos tecnológicos como Andrew Chatham, ingeniero de Google, que en 2018 expresó que la única opción sobre la mesa , es bloquear por completo los frenos del coche y no decidir nada para prevenir las vidas de las personas implicadas en el accidente.
Las compañías fabricantes de estos vehículos evitan ser los responsables en dar una solución ante este tipo de dilemas, la opción de quitar la vida a los peatones a cambio de proteger la del conductor o la de preferir salvar a los peatones a cambio de sacrificar al dueño del vehículo provocaría controversia y problemas a la compañía. Por ello optan por una vía general tal y como han declarado algunos desarrolladores de estos proyectos tecnológicos como Andrew Chatham, ingeniero de Google, que en 2018 expresó que la única opción sobre la mesa , es bloquear por completo los frenos del coche y no decidir nada para prevenir las vidas de las personas implicadas en el accidente.<ref>{{Cita web|url=https://elysiatalent.com/inteligencia-artificial-atropellar-a-una-persona-o-a-cinco/|título=Inteligencia artificial: ¿atropellar a una persona o a cinco?|fechaacceso=2023-04-08|apellido=elysiatalent|fecha=2018-11-08|sitioweb=Elysiatalent|idioma=es}}</ref>


Actualmente, los autos autónomos se consideran semi-autónomos, requiriendo que el conductor preste atención y esté preparado para tomar el control si es necesario. Por lo tanto, corresponde a los gobiernos regular al conductor que se apoya en exceso en las funciones autónomas, así como educarlos de que estas son solo tecnologías que, si bien son convenientes, no son un sustituto completo. Antes de que los autos autónomos se utilicen ampliamente, estos problemas deben abordarse a través de nuevas políticas.
Actualmente, los autos autónomos se consideran semi-autónomos, requiriendo que el conductor preste atención y esté preparado para tomar el control si es necesario.<ref>{{Cita publicación|url=https://www.nature.com/articles/d41586-018-07135-0|título=Self-driving car dilemmas reveal that moral choices are not universal|apellidos=Maxmen|nombre=Amy|fecha=2018-10-24|publicación=Nature|volumen=562|número=7728|páginas=469–470|fechaacceso=2023-04-08|idioma=en|doi=10.1038/d41586-018-07135-0}}</ref> Por lo tanto, corresponde a los gobiernos regular al conductor que se apoya en exceso en las funciones autónomas, así como educarlos de que estas son solo tecnologías que, si bien son convenientes, no son un sustituto completo. Antes de que los autos autónomos se utilicen ampliamente, estos problemas deben abordarse a través de nuevas políticas.<ref>{{Cita web|url=https://www.gov.uk/government/publications/driverless-cars-in-the-uk-a-regulatory-review|título=Regulations for driverless cars|fechaacceso=2023-04-08|sitioweb=GOV.UK|idioma=en}}</ref><ref>{{Cita web|url=https://web.archive.org/web/20190726084828/https://cyberlaw.stanford.edu/wiki/index.php/Automated_Driving:_Legislative_and_Regulatory_Action|título=Automated Driving: Legislative and Regulatory Action - CyberWiki|fechaacceso=2023-04-08|fecha=2019-07-26|sitioweb=web.archive.org}}</ref><ref>{{Cita web|url=https://www.ncsl.org/transportation/autonomous-vehicles|título=Autonomous Vehicles {{!}} Self-Driving Vehicles Enacted Legislation|fechaacceso=2023-04-08|sitioweb=www.ncsl.org}}</ref>


== Ética de la máquina ==
== Ética de la máquina ==
Línea 68: Línea 68:
En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran ser autosuficientes y capaces de tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían ser capaces de adquirir cualquier nivel de autonomía, y en qué medida podrían usar tales habilidades para posiblemente representar una amenaza o peligro. Observaron que algunas máquinas han adquirido diversas formas de semiautonomía, incluyendo la posibilidad de encontrar fuentes de energía por sí mismas y poder elegir de forma independiente objetivos para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia de cucarachas". Señalaron que la autoconciencia tal como se representa en la ciencia ficción es probablemente poco probable, pero que hay otros peligros potenciales.
En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran ser autosuficientes y capaces de tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían ser capaces de adquirir cualquier nivel de autonomía, y en qué medida podrían usar tales habilidades para posiblemente representar una amenaza o peligro. Observaron que algunas máquinas han adquirido diversas formas de semiautonomía, incluyendo la posibilidad de encontrar fuentes de energía por sí mismas y poder elegir de forma independiente objetivos para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia de cucarachas". Señalaron que la autoconciencia tal como se representa en la ciencia ficción es probablemente poco probable, pero que hay otros peligros potenciales.


Sin embargo, hay una tecnología en particular que realmente podría traer la posibilidad de robots con competencia moral real. En un documento sobre la adquisición de valores morales por los robots, Nayef Al-Rodhan menciona el caso de los chips neuromórficos, que apuntan a procesar información similar a la de los humanos, de forma no lineal y con millones de neuronas artificiales interconectadas. Los robots integrados con tecnología neuromórfica podrían aprender y desarrollar conocimiento de una manera única y humana. Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y cuya moralidad heredarían, o si también acabarían desarrollando "debilidades" humanas: egoísmo, actitud de supervivencia, vacilación, etc.
Sin embargo, hay una tecnología en particular que realmente podría traer la posibilidad de robots con competencia moral real. En un documento sobre la adquisición de valores morales por los robots, [[Nayef Al-Rodhan]] menciona el caso de los chips neuromórficos, que apuntan a procesar información similar a la de los humanos, de forma no lineal y con millones de neuronas artificiales interconectadas. Los robots integrados con tecnología neuromórfica podrían aprender y desarrollar conocimiento de una manera única y humana. Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y cuya moralidad heredarían, o si también acabarían desarrollando "debilidades" humanas: egoísmo, actitud de supervivencia, vacilación, etc.


En ''Moral Machines: Enseñar Robots desde el Mal'', Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots a distinguir entre el bien y el mal probablemente mejorarán la comprensión de la ética humana motivando a los humanos a abordar las lagunas en la teoría normativa moderna y proporcionando una plataforma para investigación experimental. Como un ejemplo, ha introducido a los especialistas en ética normativa al tema controvertido de qué algoritmos específicos de aprendizaje usar en las máquinas. [[Nick Bostrom]] y Eliezer Yudkowsky han abogado por árboles de decisión (como ID3) sobre redes neuronales y algoritmos genéticos sobre la base de que los árboles de decisión obedecen las normas sociales modernas de transparencia y predictibilidad (p. Ej. Stare decisis), mientras Chris Santos-Lang argumentó en la dirección opuesta sobre la base de que se debe permitir que las normas de cualquier edad cambien y que la falta natural de satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los "hackers" criminales.
En ''Moral Machines: Enseñar Robots desde el Mal'', Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots a distinguir entre el bien y el mal probablemente mejorarán la comprensión de la ética humana motivando a los humanos a abordar las lagunas en la teoría normativa moderna y proporcionando una plataforma para investigación experimental. Como un ejemplo, ha introducido a los especialistas en ética normativa al tema controvertido de qué algoritmos específicos de aprendizaje usar en las máquinas. [[Nick Bostrom]] y Eliezer Yudkowsky han abogado por árboles de decisión (como ID3) sobre redes neuronales y algoritmos genéticos sobre la base de que los árboles de decisión obedecen las normas sociales modernas de transparencia y predictibilidad (p. Ej. Stare decisis), mientras Chris Santos-Lang argumentó en la dirección opuesta sobre la base de que se debe permitir que las normas de cualquier edad cambien y que la falta natural de satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los "hackers" criminales.

Revisión del 10:49 8 abr 2023

La ética en la inteligencia artificial es una rama de la ética dirigida a la existencia de robots inteligentes o cualquier otro ente que posea inteligencia artificial.[1]​ La posibilidad de crear máquinas pensantes plantea una serie de cuestiones éticas que abarcan diferentes puntos, tanto que las máquinas no lastimen a seres humanos o seres vivos en general, como el estatus moral propio de la máquina.

Por lo general esta dividido en roboética, la preocupación por el comportamiento moral de los seres humanos a medida que diseñan, construyen, usan y tratan a seres de inteligencia artificial, y la ética de las máquinas, que es la preocupación por el comportamiento moral de los agentes morales artificiales (en inglés AMAs).

Los pensadores en la actualidad están preocupados por el desarrollo de conciencia en la inteligencia artificial, aunque no necesariamente están enfocados a lo importante, debemos entender que desarrollar conciencia en robots no es lo mismo que darles las funciones para realizar acciones contraproducentes. La parte delicada es de qué forma se va a incluir la ética en la inteligencia artificial.

Tomemos de ejemplo un robot programado para producir a toda costa clips de papel, lo que podría llevarlo a buscar el control del mundo para obtener los recursos para cumplir su meta: en realidad el robot no es malvado, solamente que su sistema no está programado para funcionar con éticas complejas o simplemente básicas por lo que lleva al último fin su función.[2]

Inteligencia artificial específica de dominio

La inteligencia artificial específica de dominio es aquella que se enfoca en la realización de algoritmos que son destinados a resolver solo una tarea específica. Aunque estos algoritmos generalmente son más eficientes que los humanos a la hora de desempeñar la tarea, no tienen un rango de ejecución más allá de la razón por la que fueron programados. Es decir, si se desarrolla un algoritmo para construir casas, este solo podrá construir casas, mientras que un humano puede tener un rango más amplio de habilidades.

Día a día, la aplicación de algoritmos inteligentes se vuelve más común y de estos pueden surgir problemas éticos o raciales, sobre todo cuando el algoritmo se utiliza para realizar una acción social que antes ejercía un humano. Dado lo anterior, es muy importante implementar una transparencia en el código para saber qué fallas están siendo cometidas. Otra precaución importante es elaborar una seguridad robusta sobre la máquina para así evitar manipulaciones externas del código que puedan resultar en daños a otras personas o industrias.

Una máquina debería seguir los mismos lineamientos que son requeridos de una persona al hacer su trabajo, como responsabilidad, transparencia, productividad e incorruptibilidad. Estos aspectos deben ser tomados en cuenta si la máquina o el algoritmo es planeado para desempeñar una tarea que antes era ejecutada por un ser humano.[3]

Inteligencia artificial general

Esta inteligencia, a diferencia de la anterior, posee un rango de habilidades más amplio al dejar de concentrarse en un campo específico; sin embargo, el problema ético de diseñar entes con unos rangos de dominio más amplios, es que hay una cantidad mayor significativa de probables problemas.

Para poder asegurar un comportamiento seguro de la máquina ante problemas que ni siquiera los desarrolladores prevén, es necesario plantear una buena conducta en términos de X de tal forma que la consecuencia de X no resulte dañina para los humanos. Esta especificación solamente es efectiva si la máquina puede, de manera explícita, extrapolar las consecuencias de su comportamiento. Por ejemplo, una licuadora no puede extrapolar las consecuencias de licuar algo.

Generalmente, la ética en la inteligencia artificial difiere de los otros ámbitos de la ética en que el comportamiento de la inteligencia artificial puede no ser predecible, por lo que el verificar la seguridad del sistema representa una investigación muy difícil, al tener que indagar lo que la máquina está tratando de hacer. Es por ello que la cognición ética debe ser un tema tratado entre las comunidades de ingeniería.[3]

Ética del robot

El término "ética del robot" ("roboética") se refiere a la moralidad de cómo los humanos diseñan, construyen y usan robots y otros seres artificialmente inteligentes. Considera cómo pueden los seres artificialmente inteligentes dañar a los humanos y cómo podemos beneficiarnos de ellos.

Sesgos en los sistemas IA

La IA es cada vez más inherente a los sistemas de reconocimiento facial y reconocimiento de voz. Algunos de estos sistemas tienen aplicaciones empresariales reales y afectan directamente a las personas. Estos sistemas son vulnerables a sesgos y errores introducidos por sus creadores humanos. Además, los propios datos utilizados para entrenar estos sistemas de IA pueden tener sesgos. [4][5]​Por ejemplo, los algoritmos de reconocimiento facial fabricados por Microsoft, IBM y Face++ tenían sesgos a la hora de detectar el sexo de las personas; estos sistemas de IA eran capaces de detectar el sexo de los hombres blancos con más precisión que el de los hombres de piel más oscura.[6]​ Además, en un estudio realizado en 2020 en el que se revisaron los sistemas de reconocimiento de voz de Amazon, Apple, Google, IBM y Microsoft, se descubrió que tenían mayores tasas de error al transcribir las voces de personas negras que las de personas blancas.[7]​ Además, Amazon puso fin a su uso de la IA en la contratación y el reclutamiento porque el algoritmo favorecía a los candidatos masculinos frente a los femeninos. Esto se debió a que el sistema de Amazon se entrenó con datos recogidos durante un periodo de 10 años que procedían en su mayoría de candidatos masculinos.[8]

El sesgo puede introducirse en los algoritmos de muchas maneras. La opinión más predominante sobre cómo se introduce el sesgo en los sistemas de IA es que está incrustado en los datos históricos utilizados para entrenar el sistema. Por ejemplo, la herramienta de contratación de Amazon basada en IA se entrenó con sus propios datos de contratación acumulados a lo largo de los años, durante los cuales los candidatos que conseguían el trabajo eran en su mayoría hombres blancos. En consecuencia, los algoritmos aprendieron el patrón (sesgado) de los datos históricos y generaron predicciones para el presente/futuro de que este tipo de candidatos son los más propensos a conseguir el trabajo. Por lo tanto, las decisiones de contratación tomadas por el sistema de IA resultan estar sesgadas en contra de las candidatas y los candidatos de minorías. Friedman y Nissenbaum identifican tres categorías de sesgo en los sistemas informáticos: sesgo existente, sesgo técnico y sesgo emergente.[9]​ En el procesamiento del lenguaje natural, los problemas pueden surgir del corpus lingüístico, el material fuente que utiliza el algoritmo para aprender sobre las relaciones entre las distintas palabras.[10]

Grandes empresas como IBM, Google, etc. se han esforzado por investigar y abordar estos sesgos.[11][12]​ Una solución para abordar los sesgos es crear documentación para los datos utilizados para entrenar los sistemas de IA. La minería de procesos puede ser una herramienta importante para que las organizaciones logren el cumplimiento de las normativas propuestas sobre IA mediante la identificación de errores, la supervisión de procesos, la identificación de posibles causas raíz de una ejecución incorrecta y otras funciones.[13]

Es probable que el problema del sesgo en el aprendizaje automático se haga más significativo a medida que la tecnología se extienda a áreas críticas como la medicina y el derecho, y a medida que más personas sin un profundo conocimiento técnico se encarguen de desplegarla. Algunos expertos advierten de que el sesgo algorítmico ya está omnipresente en muchas industrias y que casi nadie se esfuerza por identificarlo o corregirlo.[14]​ Existen algunas herramientas de código abierto creadas por sociedades civiles que pretenden concienciar sobre la IA sesgada.[15]

Derechos de robot

"Derechos de robot" es el concepto de las obligaciones morales que las personas deberían hacia sus máquinas, de forma similar a los derechos humanos o los derechos de los animales. Se ha sugerido que los derechos de los robots, como el derecho a existir y llevar a cabo su propia misión, podrían estar vinculados al deber de los robots de servir a los humanos, por analogía con vincular los derechos humanos con los deberes humanos ante la sociedad. Entre estos derechos se podrían incluir el derecho a la vida y la libertad, libertad de pensamiento y expresión e igualdad ante la ley. La cuestión ha sido examinada por el Instituto para el Futuro y por el Departamento de Comercio e Industria de los Estados Unidos.

Los expertos no están de acuerdo en si se conseguirán establecer leyes específicas y detalladas en un futuro lejano. Glenn McGee sugiere que robots suficientemente humanoides pueden aparecer en 2020. Ray Kurzweil establece esta fecha en el 2029. Otro grupo de científicos que se reunieron en 2007 supuso que al menos 50 años tenían que pasar antes de que existiera un sistema suficientemente avanzado.

En octubre de 2017, se otorgó la ciudadanía a la androide Sophia en Arabia Saudí, aunque algunos observadores consideraron que se trataba más de un truco publicitario que de un reconocimiento legal significativo.

Responsabilidad en los vehículos autónomos

A medida que el uso generalizado de los coches autónomos se vuelve cada vez más inminente, se deben abordar nuevos desafíos planteados por los vehículos completamente autónomos.[16][17]​ Es común encontrar noticias o debates sobre la responsabilidad legal, en caso de que dichos automóviles tengan accidentes.[18][19]​ En un informe en el que un automóvil sin conductor atropelló a un peatón, el conductor estaba dentro del automóvil, pero los controles estaban completamente en manos de las computadoras. Esto llevó a un dilema sobre quién fue responsable del accidente.

En otro incidente el 18 de marzo de 2018, Elaine Herzberg fue golpeada y muerta por un Uber autónomo en Arizona. En este caso, el automóvil automatizado era capaz de detectar automóviles y ciertos obstáculos para navegar autónomamente por la carretera, pero no podía anticipar a un peatón en medio de la vía. Esto planteó la pregunta de quién debería ser considerado responsable de su muerte: el conductor, el peatón, la compañía de automóviles o el gobierno.[20]

Estas situaciones son mas habituales en las pruebas que realizan los científicos, que buscan la mejor manera de afrontar este dilema, conocido como el dilema del tranvía, es un problema ético hipotético que presenta la elección entre sacrificar la vida de una o varias personas para salvar a otras, consiste en un tranvía fuera de control que se dirige hacia un grupo de personas. La decisión que se tome puede tener implicaciones éticas y morales, y es objeto de discusión en filosofía, ética y psicología moral. Hay cientos de variantes del dilema y la respuesta humana depende de varios factores tales como la cultura, los sesgos y sobre todo la situación hipotética que se plantea respecto a las vidas en juego. Trasladar todos estos conocimientos a una máquina para que decida a quien salvar es un quebradero de cabeza para los investigadores[21]​, ya que para ello necesitarían dotar a la inteligencia artificial de cierta moralidad para que puede deliberar su respuesta, sin embargo, ¿Es ético dotar a una máquina de moralidad para decidir sobre la vida de las personas? y si es así, ¿Quién debe controlar la moral de la IA?.[22][23]

Las compañías fabricantes de estos vehículos evitan ser los responsables en dar una solución ante este tipo de dilemas, la opción de quitar la vida a los peatones a cambio de proteger la del conductor o la de preferir salvar a los peatones a cambio de sacrificar al dueño del vehículo provocaría controversia y problemas a la compañía. Por ello optan por una vía general tal y como han declarado algunos desarrolladores de estos proyectos tecnológicos como Andrew Chatham, ingeniero de Google, que en 2018 expresó que la única opción sobre la mesa , es bloquear por completo los frenos del coche y no decidir nada para prevenir las vidas de las personas implicadas en el accidente.[24]

Actualmente, los autos autónomos se consideran semi-autónomos, requiriendo que el conductor preste atención y esté preparado para tomar el control si es necesario.[25]​ Por lo tanto, corresponde a los gobiernos regular al conductor que se apoya en exceso en las funciones autónomas, así como educarlos de que estas son solo tecnologías que, si bien son convenientes, no son un sustituto completo. Antes de que los autos autónomos se utilicen ampliamente, estos problemas deben abordarse a través de nuevas políticas.[26][27][28]

Ética de la máquina

La ética de la máquina (o la moral de la máquina) es el campo de investigación relacionado con el diseño de Agentes morales artificiales (AMA), robots o máquinas artificialmente inteligentes que se comportan moralmente o como si lo fuesen.

Isaac Asimov consideró el problema en la década de 1950 en su I, Robot. Ante la insistencia de su editor John W. Campbell Jr., propuso las Tres Leyes de la Robótica para gobernar sistemas artificialmente inteligentes. Después gran parte de su trabajo consistió en ir probando los límites de sus tres leyes para ver dónde se descompondrían, o dónde crearían una conducta paradójica o imprevista. Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles.

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes en la Ecole Polytechnique Fédérale de Lausanne en Suiza, robots programados para cooperar entre sí (en la búsqueda de un recurso beneficioso y evitar uno venenoso) finalmente aprendieron a mentir al otro, en un intento de acumular el recurso beneficioso. Un problema en este caso puede haber sido que los objetivos eran "terminales" (es decir, en contraste, los motivos humanos últimos típicamente tienen la cualidad de requerir un aprendizaje interminable).

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando dichos robots reciben cierto grado de funciones autónomas. La Marina de los EE. UU. Ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar este tema. Apuntan a programas como el Dispositivo de Adquisición de Idioma que puede emular la interacción humana.

Vernor Vinge ha sugerido que puede llegar un momento en que algunas máquinas sean más inteligentes que los humanos. Él llama a esto "la Singularidad". Sugiere que puede ser algo muy peligroso para los humanos. Esto es discutido por una filosofía llamada Singularitarianismo. El Instituto de Investigación de Inteligencia Artificial ha sugerido la necesidad de construir “IA Amigable", lo que significa que los avances que ya están ocurriendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana.

En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad hipotética de que pudieran ser autosuficientes y capaces de tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían ser capaces de adquirir cualquier nivel de autonomía, y en qué medida podrían usar tales habilidades para posiblemente representar una amenaza o peligro. Observaron que algunas máquinas han adquirido diversas formas de semiautonomía, incluyendo la posibilidad de encontrar fuentes de energía por sí mismas y poder elegir de forma independiente objetivos para atacar con armas. También señalaron que algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia de cucarachas". Señalaron que la autoconciencia tal como se representa en la ciencia ficción es probablemente poco probable, pero que hay otros peligros potenciales.

Sin embargo, hay una tecnología en particular que realmente podría traer la posibilidad de robots con competencia moral real. En un documento sobre la adquisición de valores morales por los robots, Nayef Al-Rodhan menciona el caso de los chips neuromórficos, que apuntan a procesar información similar a la de los humanos, de forma no lineal y con millones de neuronas artificiales interconectadas. Los robots integrados con tecnología neuromórfica podrían aprender y desarrollar conocimiento de una manera única y humana. Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y cuya moralidad heredarían, o si también acabarían desarrollando "debilidades" humanas: egoísmo, actitud de supervivencia, vacilación, etc.

En Moral Machines: Enseñar Robots desde el Mal, Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots a distinguir entre el bien y el mal probablemente mejorarán la comprensión de la ética humana motivando a los humanos a abordar las lagunas en la teoría normativa moderna y proporcionando una plataforma para investigación experimental. Como un ejemplo, ha introducido a los especialistas en ética normativa al tema controvertido de qué algoritmos específicos de aprendizaje usar en las máquinas. Nick Bostrom y Eliezer Yudkowsky han abogado por árboles de decisión (como ID3) sobre redes neuronales y algoritmos genéticos sobre la base de que los árboles de decisión obedecen las normas sociales modernas de transparencia y predictibilidad (p. Ej. Stare decisis), mientras Chris Santos-Lang argumentó en la dirección opuesta sobre la base de que se debe permitir que las normas de cualquier edad cambien y que la falta natural de satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los "hackers" criminales.

Consecuencias no deseadas

Información adicional: riesgo existencial de la inteligencia artificial general

Muchos investigadores han argumentado que, por medio de una "explosión de inteligencia" en algún momento del siglo XXI, una IA que se mejora a sí misma podría llegar a ser tan inmensamente más poderosa que los humanos que no podríamos evitar que logre sus objetivos. En su documento "Aspectos éticos en la inteligencia artificial avanzada", el filósofo Nick Bostrom sostiene que la inteligencia artificial tiene la capacidad de provocar la extinción humana. Afirma que la superinteligencia general sería capaz de iniciar sus propios planes, y, por lo tanto, podría considerarse más apropiadamente como un agente autónomo. Como los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, los diseñadores de la súper-inteligencia deberían especificar sus motivaciones originales. En teoría, una IA superinteligente podría generar casi cualquier resultado posible y frustrar cualquier intento de evitar la implementación de su objetivo principal, podrían surgir muchas consecuencias involuntarias no controladas. Podría matar a todos los demás agentes, persuadirlos de cambiar su comportamiento o bloquear sus intentos de interferencia.

Sin embargo, en lugar de abrumar a la raza humana y llevar a nuestra destrucción, Bostrom también ha afirmado que la súper inteligencia puede ayudarnos a resolver muchos problemas difíciles como la enfermedad, la pobreza y la destrucción ambiental, y podría ayudarnos a "mejorar" a nosotros mismos.

La gran complejidad de los sistemas de valores humanos hace que sea muy difícil hacer que las motivaciones de IA sean amigables para los humanos. A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky, hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación.

Bill Hibbard propone un diseño de inteligencia artificial que evita varios tipos de comportamiento involuntario de la IA, incluido el autoengaño, las acciones instrumentales involuntarias y la corrupción del generador de recompensas.

Amenaza a la dignidad humana

Artículo principal: Poder del ordenador y razón humana

Joseph Weizenbaum argumentó en 1976 que la tecnología de IA no debería usarse para reemplazar a las personas en puestos que requieren respeto y cuidado, como cualquiera de estos:

  • Un representante de servicio al cliente (la tecnología IA ya se usa hoy en día para los sistemas de respuesta de voz interactiva telefónicas)
  • Un terapeuta (como fue propuesto por Kenneth Colby en la década de 1970)
  • Una niñera (como lo sugirió Pamela McCorduck en su libro The Fifth Generation)
  • Un soldado
  • Un juez
  • Un agente de policía

Weizenbaum explica que necesitamos auténticos sentimientos de empatía de las personas en estos puestos. Si las máquinas los reemplazan, nos encontraremos alienados, devaluados y frustrados. La inteligencia artificial, si se usa de esta manera, representa una amenaza para la dignidad humana. Weizenbaum argumenta que el hecho de que estemos proponiéndonos la posibilidad de máquinas en estas posiciones sugiere que hemos experimentado una "atrofia del espíritu humano que proviene de pensar en nosotros mismos como máquinas".

Pamela McCorduck contesta que, hablando en nombre de las mujeres y las minorías "Prefiero arriesgarme con una máquina imparcial", señalando que hay condiciones en las que preferiríamos tener jueces y policías automatizados que no tengan un gen personal. El fundador de AI John McCarthy objeta el tono moralizante de la crítica de Weizenbaum. "Cuando moralizar es a la vez vehemente y vago, invita al abuso autoritario", escribe.

Bill Hibbard escribe que "La dignidad humana exige que nos esforcemos por eliminar nuestra ignorancia de la naturaleza de la existencia, y IA es necesaria para ese esfuerzo".

Transparencia y código abierto

Bill Hibbard argumenta que debido a que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. Ben Goertzel y David Hart crearon OpenCog como un marco de código abierto para el desarrollo de inteligencia artificial. OpenAI es una compañía de investigación de IA sin fines de lucro creada por Elon Musk, Sam Altman y otros para desarrollar IA de código abierto beneficiosa para la humanidad. Hay muchos otros desarrollos de inteligencia de código abierto.

Estatus moral de las inteligencias artificiales

Globalmente se acepta que las inteligencias artificiales no tienen un estatus moral. Es posible modificar programas libremente sin que estos se percaten de lo que está haciendo, por lo que los dilemas morales no son ejercidos sobre el algoritmo sino sobre la gente que utiliza el sistema.

Hay dos criterios importantes que se toman en cuenta cuando se habla de un estatus moral: la sensibilidad y la sapiencia. La sensibilidad se refiere a la capacidad de sentir y la sapiencia es un conjunto de características que se asocian con un ente de inteligencia superior, como la autoconciencia y la respuesta racional. Es posible la existencia de un estatus moral parcial como sucede en el caso de los animales, quienes sienten pero no tienen sapiencia; de ahí que los humanos, en comparativa, poseen un estatus moral superior.

Ahora bien, si se llega a crear una inteligencia artificial sensible y que, además, posea la misma capacidad de sapiencia de un adulto humano, la máquina y el humano tendrían el mismo estatus moral. Este concepto se basa en el Principio No Discriminatorio Ontogénico, que indica que si dos seres tienen la misma funcionalidad, la misma experiencia consciente y solo difieren en el sustrato de su implementación, tienen el mismo estatus moral ya que si se rechaza el sustrato, dicho rechazo es equivalente a un repudio por el color de piel o la raza, convirtiéndolo en racismo. El sustrato no dice que una inteligencia artificial es consciente y que pueda tener la misma funcionalidad que un ser humano, por lo que el estatus moral no depende de cómo fueron concebidos los agentes. Esta idea es bastante aceptada por las sociedades en general.

Si estas dos instancias estatutarias son aceptadas, entonces se deben de tomar en cuenta el planteamiento de nuevas preguntas éticas. Estos nuevos cuestionamientos pueden surgir dado que una mente artificial podría tener comportamientos diferentes a los de un humano o a los de un animal, por lo que se debe considerar cómo dichos comportamientos pueden afectar el estatus moral de las inteligencias artificiales.[3][29]

La inteligencia artificial aplicadas a las Armas

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando se les da a estos robots cierto grado de funciones autónomas.[30][31]​ La Marina de Estados Unidos ha financiado un informe que indica que los robots militares se vuelven más complejos, debe prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas.[32][33]​ Un investigador afirma que los robots autónomos podrían ser más humanos, ya que podrían tomar decisiones con mayor eficacia.

Dentro de esta última década, ha habido una investigación intensiva en el poder autónomo con la capacidad de aprender utilizando las responsabilidades morales asignadas. "Los resultados pueden ser utilizados al diseñar futuros robots militares, para controlar tendencias no deseadas para asignar responsabilidad a los robots".[34]​ Desde una perspectiva consecuencialista, existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre quién matar y por eso debe haber un marco moral establecido que la IA no puede anular.

Ha habido una protesta reciente con respecto a la ingeniería de las armas de la inteligencia artificial y ha incluso fomentado para arriba ideas de una toma de posesión del robot de la humanidad. Las armas de la IA presentan un tipo de peligro distinto al de las armas controladas por los seres humanos. Muchos gobiernos han comenzado a financiar programas para desarrollar el armamento de AI. La Armada de los Estados Unidos anunció recientemente planes para desarrollar armas autónomas de aviones no tripulados, paralelamente a anuncios similares de Rusia y Corea, respectivamente. Debido a la posibilidad de que las armas de la IA se vuelvan más peligrosas que las armas humanas, Stephen Hawking y Max Tegmark han firmado una petición de Futuro de la Vida para prohibir las armas de la IA. El mensaje publicado por Hawking y Tegmark indica que las armas de la IA representan un peligro inmediato y que se requieren medidas para evitar desastres catastróficos en un futuro próximo.[35]

"Si alguna potencia militar importante avanza con el desarrollo de armas de AI, una carrera armamentista mundial es prácticamente inevitable y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikov de mañana", dice la petición, El cofundador de Skype Jaan Tallinn y el profesor de lingüística del MIT Noam Chomsky como partidarios adicionales contra el armamento de la IA.[36]

El físico y astrónomo Royal Sir Martin Rees advirtió de casos catastróficos como "robots mudos que se hacen pícaros o una red que desarrolla una mente propia". Huw Price, un colega de Rees en Cambridge, ha expresado una advertencia similar de que los seres humanos pueden no sobrevivir cuando la inteligencia "escapa a las limitaciones de la biología". Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana.

En cuanto al potencial de sistemas militares más inteligentes que los militares, el Proyecto Open Philanthropy escribe que este escenario "parece ser importante como riesgos relacionados con el control", pero que las organizaciones de investigación que investigan el impacto social de largo plazo de AI tienen (MIRI) Y el Instituto del Futuro de la Humanidad (FHI), que ha sido un foco importante para las organizaciones que han estado activas en este espacio, como el Instituto de Investigación de Inteligencia de Máquina (MIRI), y parece haber habido menos análisis y debate Respecto a ellos."[37]

Organizaciones

Amazon, Google, Facebook, IBM y Microsoft han establecido una asociación sin fines de lucro para formular las mejores prácticas en tecnologías de inteligencia artificial, mejorar la comprensión del público y servir como una plataforma sobre inteligencia artificial. Ellos declararon: "Esta asociación en AI conducirá investigaciones, organizará discusiones, proporcionará liderazgo de pensamiento, consultará con terceros relevantes, responderá preguntas del público y medios, y creará material educativo que fomentará la comprensión de las tecnologías de inteligencia artificial, incluida la percepción de la máquina, el aprendizaje , y razonamiento automatizado ". Apple se unió a otras compañías tecnológicas como miembro fundador de la Alianza de AI en enero de 2017. Los miembros corporativos harán contribuciones financieras y de investigación al grupo, mientras se comprometen con la comunidad científica para llevar académicos al tablero.

En muchos países, además, se están creando fundaciones y asociaciones independientes para intentar profundizar en el desarrollo de los aspectos éticos de los desarrollos en inteligencia artificial y en robótica. Por ejemplo, el 17 de septiembre de 2019 se presentó en Madrid (España), OdiseIA, Observatorio del Impacto Social y Ético de la Inteligencia Artificial.

En ficción

La película The Thirteenth Floor sugiere un futuro donde los mundos simulados con habitantes sensibles son creados por consolas de juegos de computadora con el propósito de entretenimiento. La película The Matrix sugiere un futuro donde las especies dominantes en el planeta Tierra son máquinas sensibles y la humanidad es tratada con el máximo especismo. El cuento "The Planck Dive" sugiere un futuro en el que la humanidad se ha convertido en un software que se puede duplicar y optimizar, y la distinción relevante entre los tipos de software es consciente y no sensible. La misma idea se puede encontrar en el Emergency Medical Hologram de Starship Voyager, que es una copia aparentemente sensible de un subconjunto reducido de la conciencia de su creador, el Dr. Zimmerman, quien, por los mejores motivos, ha creado el sistema para dar información médica. asistencia en caso de emergencias. Las películas Bicentennial Man y A.I. lidiar con la posibilidad de robots sensibles que puedan amar. Yo, Robot, exploró algunos aspectos de las tres leyes de Asimov. Todos estos escenarios intentan prever consecuencias posiblemente no éticas de la creación de computadoras sensibles.

La ética de la inteligencia artificial es uno de varios temas centrales en la serie de juegos Mass Effect de BioWare. Explora el escenario de una civilización que accidentalmente crea IA a través de un aumento rápido en el poder computacional a través de una red neuronal a escala global. Este evento provocó un cisma ético entre aquellos que consideraban que otorgar derechos orgánicos a Geth nuevamente consciente era apropiado y aquellos que continuaron viéndolos como maquinaria desechable y lucharon para destruirlos. Más allá del conflicto inicial, la complejidad de la relación entre las máquinas y sus creadores es otro tema recurrente a lo largo de la historia.

Con el tiempo, los debates han tendido a centrarse cada vez menos en la posibilidad y más en la deseabilidad, como se enfatiza en los debates "Cosmista" y "Terran" iniciados por Hugo de Garis y Kevin Warwick. Un cosmista, según Hugo de Garis, en realidad está buscando construir sucesores más inteligentes para la especie humana.

Literatura

  • La bibliografía estándar de la ética de la inteligencia artificial en PhilPapers. Una reciente colección es V.C. Müller(ed.)(2016)

Referencias

  1. [1] Andreas Kaplan. 2020. Artificial Intelligence: Emphasis on Ethics and Education.International Journal of Swarm Intelligence and Evolutionary Computation, 9(3)
  2. DAVIES, J. Program good ethics into artificial intelligence. Bibliografía: Davies, J. (2016). Program good ethics into artificial intelligence. Nature [Accessed 1 Nov. 2017].
  3. a b c «Ethics of Artificial Intelligence». Archivado desde el original el 4 de marzo de 2016. Consultado el 17 de marzo de 2016. 
  4. Fernández, Yúbal (4 de octubre de 2017). «El problema no serán los robots asesinos, sino los datos sesgados en algoritmos, según el jefe de IA de Google». Xataka. Consultado el 28 de febrero de 2023. 
  5. «Los desafíos éticos de la inteligencia artificial». Reason Why. Consultado el 28 de febrero de 2023. 
  6. Barca, Kamila (20 de diciembre de 2019). «La tecnología de reconocimiento facial tiene sesgos raciales, según un nuevo estudio». Business Insider España. Consultado el 28 de febrero de 2023. 
  7. Press, Europa (25 de marzo de 2020). «Un grupo de investigadores afirma que existe sesgo racial en los sistemas de reconocimiento de voz». www.europapress.es. Consultado el 28 de febrero de 2023. 
  8. Sabán, Antonio (10 de octubre de 2018). «Amazon desecha una IA de reclutamiento por su sesgo contra las mujeres». Genbeta. Consultado el 28 de febrero de 2023. 
  9. Barbieri, Alberto (16 de diciembre de 2021). «El error humano en la inteligencia artificial: porque debemos aprender a vivir con él». Blog de Lenovo. Consultado el 28 de febrero de 2023. 
  10. «La eliminación de los sesgos en los algoritmos». revista.une.org. Consultado el 28 de febrero de 2023. 
  11. Pascual, Manuel G. (3 de febrero de 2022). «DeepMind desarrolla un sistema de inteligencia artificial capaz de programar de forma creativa». El País. Consultado el 28 de febrero de 2023. 
  12. PricewaterhouseCoopers. «OdiseIA, PwC, Google, Microsoft, IBM y Telefónica lanzan la primera guía para el uso responsable de la IA». PwC. Consultado el 28 de febrero de 2023. 
  13. RedaccionMCP (20 de abril de 2022). «¿Sabes cómo funciona la minería de procesos? ¡Descúbrelo en cuatro pasos!». MuyComputerPRO. Consultado el 28 de febrero de 2023. 
  14. mitsmrmex (23 de febrero de 2023). «Aprende a gestionar el sesgo de la IA en lugar de intentar eliminarlo». MIT Sloan Management Review Mexico. Consultado el 28 de febrero de 2023. 
  15. «Where in the World is AI? Responsible & Unethical AI Examples». map.ai-global.org. Consultado el 28 de febrero de 2023. 
  16. Davies, Alex. «Google's Self-Driving Car Caused Its First Crash». Wired (en inglés estadounidense). ISSN 1059-1028. Consultado el 8 de abril de 2023. 
  17. Levin, Sam (19 de marzo de 2018). «Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian». The Guardian (en inglés británico). ISSN 0261-3077. Consultado el 8 de abril de 2023. 
  18. «Who is responsible when a self-driving car has an accident?». Futurism. Consultado el 8 de abril de 2023. 
  19. «Autonomous Car Crashes: Who -- or What -- Is to Blame?». Knowledge at Wharton (en inglés estadounidense). Consultado el 8 de abril de 2023. 
  20. Stilgoe, Jack (2020). Stilgoe, Jack, ed. Who Killed Elaine Herzberg? (en inglés). Springer International Publishing. pp. 1-6. ISBN 978-3-030-32320-2. doi:10.1007/978-3-030-32320-2_1. Consultado el 8 de abril de 2023. 
  21. País, Ediciones El (25 de octubre de 2018). «El MIT recurre al dilema filosófico del tranvía para saber a quién podrá atropellar un coche autónomo». Verne. Consultado el 8 de abril de 2023. 
  22. Nast, Condé (5 de noviembre de 2018). «El dilema del coche autónomo: ¿cómo es la moral de una inteligencia artificial?». GQ España. Consultado el 8 de abril de 2023. 
  23. Espinosa, Jesús (25 de octubre de 2019). «¿Los futuros coches autónomos podrían tomar decisiones éticas? El 'dilema del tranvía', en las carreteras». Newtral. Consultado el 8 de abril de 2023. 
  24. elysiatalent (8 de noviembre de 2018). «Inteligencia artificial: ¿atropellar a una persona o a cinco?». Elysiatalent. Consultado el 8 de abril de 2023. 
  25. Maxmen, Amy (24 de octubre de 2018). «Self-driving car dilemmas reveal that moral choices are not universal». Nature (en inglés) 562 (7728): 469-470. doi:10.1038/d41586-018-07135-0. Consultado el 8 de abril de 2023. 
  26. «Regulations for driverless cars». GOV.UK (en inglés). Consultado el 8 de abril de 2023. 
  27. «Automated Driving: Legislative and Regulatory Action - CyberWiki». web.archive.org. 26 de julio de 2019. Consultado el 8 de abril de 2023. 
  28. «Autonomous Vehicles | Self-Driving Vehicles Enacted Legislation». www.ncsl.org. Consultado el 8 de abril de 2023. 
  29. «Robotics: Ethics of artificial intelligence». Consultado el 17 de marzo de 2016. 
  30. Robot Three-Way Portends Autonomous Future, By David Axe wired.com, August 13, 2009.
  31. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  32. New Navy-funded Report Warns of War Robots Going "Terminator" Archivado el 28 de julio de 2009 en Wayback Machine., by Jason Mick (Blog), dailytech.com, February 17, 2009.
  33. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  34. http://search.proquest.com/docview/1372020233
  35. Zach Musgrave and Bryan W. Roberts. «Why Artificial Intelligence Can Too Easily Be Weaponized - The Atlantic». The Atlantic. 
  36. Cat Zakrzewski. «Musk, Hawking Warn of Artificial Intelligence Weapons». WSJ. 
  37. GiveWell (2015), Potential risks from advanced artificial intelligence, consultado el 11 de octubre de 2015 .