Ética de las máquinas

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda

La ética de las máquinas (o moral de las máquinas) es la parte de la ética de la inteligencia artificial que trata el comportamiento moral de los seres con inteligencia artificial.[1]​ La ética de las máquinas contrasta con la roboética, que se enfoca al comportamiento moral de los humanos mientras diseñan, construyen, usan y tratan a los seres con inteligencia artificial. La ética de las máquinas no debe ser confundida con la ética computacional, la cual se enfoca en el comportamiento profesional en el uso de las computadoras y la información.

Historia[editar]

Antes del siglo 21, la ética de las máquinas no había sido tomada en cuenta fuera de la literatura, debido principalmente a la computación y las limitaciones de la inteligencia artificial. Estas limitaciones están siendo superadas a través de la ley de Moore y un enfoque renovado en el campo de la inteligencia artificial. La ética de las máquinas se ha vuelto un campo realista desde que las computadoras comenzaron a manejar transacciones médicas y monetarias. El profesor James H. Moor está acreditado por haber acuñado la frase en su paper del 2006 La naturalez, importancia y dificultad de la ética de las máquinas, así como por la definición.[1]

En 2009, Oxford University Press publicó Moral Machines, Teaching Robots Right from Wrong, el cual se anuncia como “el primer libro en examinar el reto de construir agentes morales artificiales, entrando profundamente en la naturaleza humana de la toma de decisiones y la ética.” Se citaron unas 450 fuentes, de las cuales, alrededor de 100 abordaron las principales preguntas sobre la ética de las máquinas. Pocas fueron escritas antes del siglo 21, principalmente porque cualquier forma de inteligencia artificial era inexistente.[2]

En 2011, Cambridge University Press publicó una colección de ensayos sobre la ética de las máquinas, editado por Michael y Susan Leigh Anderson,[3]​ quienes también editaron un número especial sobre el tema en la IEEE Sistemas Inteligentes en 2006.[4]

En 2014, la Oficina de Investigación Naval estadounidense anunció que distribuiría $ 7.5 millones en convenciones por cinco años a investigadores universitarios para estudiar cuestiones de la ética de las máquinas aplicadas a robots autónomos[5]​ y Nick Bostrom en su libro La superinteligencia: caminos, peligros, estrategias,elevó la ética de las máquinas como “el más importante… problema que ha enfrentado la humanidad”, además alcanzó el lugar #17 en la lista de los libros de ciencia ficción mejor vendidos del New York Times.[6]

Artículos sobre la ética de las máquinas aparecen regularmente en la revista Ética y Tecnologías de la Información.[7]

Alcance[editar]

Moor distingue entre:[1]

  • Agentes de impacto ético, definido como las máquinas que conllevan un impacto ético.
  • Agentes éticos implícitos, acciones restringidas para evitar resultados no éticos.
  • Agentes éticos explícitos, donde la máquina aplica la ética de la misma manera que una computadora que juega ajedrez.
  • Agentes totalmente éticos, permitiendo que los tres agentes anteriores deriven de la ética de sus desarrolladores

Enfoque[editar]

Urgencia[editar]

En 2009, académicos y técnicos expertos asistieron a una conferencia para discutir sobre el impacto potencial de que las computadoras y robots, hipotéticamente, se vuelvan autosuficientes y capaces de tomar sus propias decisiones. Discutieron sobre la posibilidad y el nivel en el que las computadoras y robots sean capaces de adquirir un nivel de autonomía y a qué grado podrían utilizar dicha habilidad para significar un posible riesgo o amenaza. Notaron que algunas máquinas han adquirido distintas formas de semiautonomía, incluso siendo capaces de encontrar fuentes de energía y de elegir de manera independiente objetivos para atacar con armas. También encontraron que algunos virus de computadora son capaces de evadir el proceso de eliminación y han alcanzado una "inteligencia de cucaracha." Además señalaron que la autoconciencia, como se muestra en la ciencia ficción es muy poco probable, pero que existen otros riesgos y peligros potenciales.[8]

Algunos expertos y académicos han cuestionado el uso de robots para combate militar, especialmente cuando a estos robots se les da un grado de funciones autónomas.[9]​ La Armada de los Estados Unidos ha financiado un reporte en el que se señala que mientras más complejos se vuelvan los robots militares, debe de haber una mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas.[10][11]​ El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para examinar esta cuestión.[12]​ Se enfocan hacia programas como el dispositivo de adquisición del lenguaje, que puede emular la interacción humana.

Algoritmos[editar]

Nick Bostrom y Eliezer Yudkowsky han argumentado a favor de los árboles de decisión (como el ID3) por encima de las redes neuronales y algoritmos genéticos, con la base de que los árboles de decisión obedecen a normas sociales modernas de transparencia y previsibilidad (por ejemplo, stare decisis),[13]​ mientras que Chris Santos-Lang alega en la dirección opuesta, con la justificación de que se debe permitir cambiar las normas de cualquier época y que el fallo natural satisfaga estas normas, lo cual ha sido esencial en hacer a los humanos menos vulnerables que las máquinas ante los "hackers".[14][15]

Entrenamiento e instrucción[editar]

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes en la Escuela Politécnica Federal de Lausana, en Suiza, robots que fueron programados para cooperar entre sí en la búsqueda de un recurso beneficioso y evitando uno dañino, eventualmente aprendieron a mentir entre ellos, con el fin de obtener el recurso que buscaban.[16]


Un problema en este caso puede haber sido que los objetivos eran terminales (es decir, en comparación, los motivos humanos tienen una calidad de que requieren un aprendizaje continuo). Los robots fueron agrupados en clanes y se utilizó el código genético digital de los miembros exitosos para la próxima generación. Después de 50 generaciones sucesivas, un miembro de los clanes descubrió cómo indicar la comida en vez del veneno. Además, hubo robots que señalaban el peligro y morían por salvar a otros. Estas adaptaciones pueden haber sido el resultado del código genético de sus creadores humanos.[14]

Implicaciones éticas[editar]

En Moral Machines: Teaching Robots Right from Wrong, Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots la diferencia entre el bien y el mal, nos ayudará a avanzar en el entendimiento de la ética humana, motivando a los humanos para acortar la brecha en la teoría normativa moderna y brindando una plataforma para la investigación experimental.[2]

Aproximaciones[editar]

Se han hecho varios intentos para hacer la ética, computable o al menos formal. Mientras que las tres leyes de la robótica de Isaac Asimov, usualmente no son consideradas como adecuadas para funcionar como agente moral artificial,[17]​ además, se ha estudiado que el imperativo categórico de Kant sí puede ser utilizado.[18]​ Sin embargo, se ha señalado que los valores humanos son muy complejos en algunos aspectos.[19]​ Una manera de superar esta dificultad es recibir los valores directamente de las personas a través de un mecanismo, por ejemplo, aprendiéndolos.[20][21][22]
Otro enfoque es basar las consideraciones éticas actuales en situaciones similares pasadas. A esto se le llama casuística y puede implementarse a través de la investigación en Internet. El consenso de millones puede llevar a una decisión que depende de la democracia.[23]

Un experimento mental se centra en Genie Golem, con poderes ilimitados y se presenta él mismo ante el lector. Genie afirma que volverá en 50 años y exige que se le entregue un conjunto definido de valores morales. El propósito de este experimento es iniciar un discurso sobre la mejor la manera de definir la ética para que sea entendible para las computadoras.[24]

La ética de las máquinas en la ficción[editar]

En 1950, Isaac Asimov trató el asunto en su libro Yo, Robot. Ante la insistencia de su editor John W. Campbell Jr., propuso las tres leyes de la robótica para regir los sistemas de inteligencia artificial. Gran parte de su trabajo se dedicó entonces, a probar los límites de sus tres leyes, para así poder encontrar en dónde fallarían o dónde se comportarían de manera paradójica o imprevista. Su trabajo sugiere que no hay un conjunto de leyes establecidas que puedan anticiparse a todas las circunstancias.[25]

Áreas relacionados[editar]

Véase también[editar]

Referencias[editar]

  1. a b c Moor, James H. (July–August 2006). «The Nature, Importance and Difficulty of Machine Ethics». IEEE Intelligent Systems 21 (4): 18-21. doi:10.1109/MIS.2006.80. 
  2. a b Wallach, Wendell; Allen, Colin (noviembre de 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press. ISBN 978-0-19-537404-9. 
  3. Anderson, Michael; Anderson, Susan Leigh, eds. (julio de 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2. 
  4. Anderson, Michael; Anderson, Susan Leigh, eds. (July–August 2006). «Special Issue on Machine Ethics». IEEE Intelligent Systems 21 (4): 10-63. ISSN 1541-1672. Archivado desde el original el 26 de noviembre de 2011. 
  5. Tucker, Patrick (13 de mayo de 2014). «Now The Military Is Going To Build Robots That Have Morals». Defense One. Consultado el 9 de julio de 2014. 
  6. «Best Selling Science Books». New York Times. New York Times. 8 de septiembre de 2014. Consultado el 9 de noviembre de 2014. 
  7. C. d. Hoven, M. J.; Manders-Huits, N. (eds.). Ethics and Information Technology. ISSN 1572-8439 http://www.springer.com/computer/swe/journal/10676 |url= sin título (ayuda). 
  8. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  9. Call for debate on killer robots, By Jason Palmer, Science and technology reporter, BBC News, 8/3/09.
  10. Science New Navy-funded Report Warns of War Robots Going "Terminator"
  11. Navy report warns of robot uprising, suggests a strong moral compass, by Joseph L. Flatley engadget.com, Feb 18th 2009.
  12. AAAI Presidential Panel on Long-Term AI Futures 2008-2009 Study, Association for the Advancement of Artificial Intelligence, Accessed 7/26/09.
  13. Bostrom, Nick; Yudkowsky, Eliezer (2011). «The Ethics of Artificial Intelligence» (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. 
  14. a b Santos-Lang, Chris (2002). «Ethics for Artificial Intelligences». Archivado desde el original el 3 de diciembre de 2011. 
  15. Santos-Lang, Christopher (2014). «Moral Ecology Approaches to Machine Ethics» (PDF). En van Rysewyk, Simon; Pontier, Matthijs. Machine Medical Ethics. Switzerland: Springer. pp. 111-127. doi:10.1007/978-3-319-08108-3_8. 
  16. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  17. Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285-296.
  18. Powers, Thomas M. (2011): Prospects for a Kantian Machine. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464-475.
  19. Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics. http://intelligence.org/files/IE-ME.pdf
  20. Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition. http://intelligence.org/files/CEV.pdf
  21. Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316-334.
  22. Hibbard, Bill (2014): Ethical Artificial Intelligence. http://arxiv.org/abs/1411.1373
  23. Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  24. Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245-248.
  25. Asimov, Isaac (2008). I, robot. Nueva York: Bantam. ISBN 0-553-38256-X. 

Notas[editar]

  • Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press.
  • Anderson, Michael; Anderson, Susan Leigh, eds (July 2011). Machine Ethics. Cambridge University Press.
  • Storrs Hall, J. (May 30, 2007). Beyond AI: Creating the Conscience of the Machine Prometheus Books.
  • Moor, J. (2006). The Nature, Importance, and Difficulty of Machine Ethics. IEEE Intelligent Systems, 21(4), pp. 18–21.
  • Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).

Otras lecturas[editar]

  • Anderson, Michael; Anderson, Susan Leigh, eds (July/August 2006). "Special Issue on Machine Ethics". IEEE Intelligent Systems 21 (4): 10-63.
  • Bendel, Oliver (December 11, 2013). Considerations about the Relationship between Animal and Machine Ethics. AI & SOCIETY, DOI 10.1007/s00146-013-0526-3.
  • Dabringer, Gerhard, ed. (2010). "Ethical and Legal Aspects of Unmanned Systems. Interviews". Austrian Ministry of Defence and Sports, Vienna 2010, ISBN 978-3-902761-04-0.
  • Gardner, A. (1987). An Artificial Approach to Legal Reasoning. Cambridge, MA: MIT Press.
  • Georges, T. M. (2003). Digital Soul: Intelligent Machines and Human Values. Cambridge, MA: Westview Press.
  • Singer, P.W. (December 29, 2009). Wired for War: The Robotics Revolution and Conflict in the 21st Century: Penguin.

Enlaces externos[editar]

  • Machine Ethics, Hartford University links to conferences, articles and researchers.