Efecto ELIZA

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda

El efecto ELIZA, en ciencias computacionales, es la tendencia a asumir, inconscientemente, que los comportamientos informáticos son análogos a los comportamientos humanos.

En su forma más específica, el efecto ELIZA se refiere sólo a "la susceptibilidad de las personas a buscar una mayor comprensión en cadenas de símbolos -en especial las palabras- ensartados por computadoras".[1]​ Un ejemplo trivial de esta forma del efecto Eliza, dada por Douglas Hofstadter, implica un cajero automático que muestra la palabra "GRACIAS" al final de una transacción. Alguien poco observador podría pensar que la máquina está en realidad expresando gratitud; Sin embargo, la máquina sólo está imprimiendo una cadena pre programada de símbolos.[1]

Más general, el efecto ELIZA describe cualquier situación[2][3]​ donde, basándose únicamente en la salida del sistema, los usuarios perciben los sistemas informáticos como tuvieran "cualidades y habilidades intrínsecas controladas por el software que posiblemente no podrían lograr"[4]​ o "asumen que las salidas reflejan una mayor causalidad de lo que realmente significan."[5]​ Tanto en su forma específica como en la general, el efecto ELIZA es notable ya que ocurre incluso cuando los usuarios del sistema son conscientes de la naturaleza determinada de la salida producida por el sistema. Desde un punto de vista psicológico, el efecto ELIZA es el resultado de una disonancia cognitiva sutil entre la conciencia del usuario ante las limitaciones de programación y su comportamiento hacia la salida del programa.[6]​ El descubrimiento del efecto ELIZA fue muy importante para el desarrollo en la inteligencia artificial, demostrando el principio de utilizar la ingeniería social en lugar de la programación explícita para pasar la prueba de Turing.[7]

Origen[editar]

El efecto es nombrado en 1966 a partir del bot conversacional ELIZA, desarrollado por el informático del MIT Joseph Weizenbaum. Al ejecutar el script DOCTOR de Weizenbaum, ELIZA parodió a un psicoterapeuta de la escuela de Rogers, en gran parte al reformular las respuestas del "paciente" como preguntas:

Humano: Bueno, mi novio me hizo venir aquí.
ELIZA: ¿Tu novio te hizo venir aquí?
Humano: Él dice que estoy deprimida la mayor parte del tiempo.
ELIZA: Lamento escuchar que estés deprimida.
Humano: Es cierto. Soy infeliz.
ELIZA: ¿Cree usted que venir aquí le ayudará a no ser infeliz?[8]

Aunque fue diseñado estrictamente como un mecanismo para mantener "conversaciones en lenguaje natural" con un ordenador,[9]​ el script DOCTOR de ELIZA resultó ser un éxito sorprendente en la obtención de respuestas emocionales de los usuarios que, en el curso de la interacción con el programa, comenzaron a atribuir comprensión y motivación en las salidas del programa.[10]​ Como Weizenbaum más tarde escribió: "No me había dado cuenta... de que exposiciones extremadamente cortas a un programa de ordenador relativamente simple podrían inducir un poderoso pensamiento delirante en personas bastante normales." [11]​ De hecho, el código de ELIZA no había sido diseñado para evocar esta reacción en el primer lugar. A partir de esta observación, los investigadores descubrieron que los usuarios asumían, inconscientemente, que las preguntas de ELIZA implicaban interés e involucración emocional en los temas tratados, aun cuando conscientemente sabían que ELIZA no simula emoción.[12]

Véase también[editar]

Referencias[editar]

  1. a b Hofstadter, Douglas R. (1996). «Preface 4 The Ineradicable Eliza Effect and Its Dangers,Epilogue». Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought. Basic Books. p. 157. ISBN 978-0-465-02475-9. 
  2. Fenton-Kerr, Tom (1999). «GAIA: An Experimental Pedagogical Agent for Exploring Multimodal Interaction». Computation for Metaphors, Analogy, and Agents. Springer. p. 156. «Although Hofstadter is emphasizing the text mode here, the "Eliza effect" can be seen in almost all modes of human/computer interaction.». 
  3. Ekbia, Hamid R. (2008). Artificial Dreams: The Quest for Non-Biological Intelligence. Cambridge University Press. p. 8. ISBN 978-0-521-87867-8. 
  4. King, W. (1995). «Anthropomorphic Agents: Friend, Foe, or Folly». Technical Memorandum M-95-1. University of Washington. 
  5. Rouse, William B.; Boff, Kenneth R. (2005). Organizational Simulation. Wiley-IEEE. pp. 308-309. ISBN 978-0-471-73943-2. «This is a particular problem in digital environments where the "Eliza effect" as it is sometimes called causes interactors to assume that the system is more intelligent than it is, to assume that events reflect a greater causality than they actually do.». 
  6. Ekbia, Hamid R. (2008). Artificial Dreams: The Quest for Non-Biological Intelligence. Cambridge University Press. p. 156. ISBN 978-0-521-87867-8. «But people want to believe that the program is "seeing" a football game at some plausible level of abstraction. The words that (the program) manipulates are so full of associations for readers that they CANNOT be stripped of all their imagery. Collins of course knew that his program didn't deal with anything resembling a two-dimensional world of smoothly moving dots (let alone simplified human bodies), and presumably he thought that his readers, too, would realize this. He couldn't have suspected, however, how powerful the Eliza effect is.». 
  7. Trappl, Robert; Petta, Paolo; Payr, Sabine (2002). Emotions in Humans and Artifacts. Cambridge, Mass.: MIT Press. p. 353. ISBN 978-0-262-20142-1. «The "Eliza effect" — the tendency for people to treat programs that respond to them as if they had more intelligence than they really do (Weizenbaum 1966) is one of the most powerful tools available to the creators of virtual characters.». 
  8. Güzeldere, Güven; Franchi, Stefano. «dialogues with colorful personalities of early ai». Archivado desde el original el 22 de noviembre de 2010. Consultado el 30 de julio de 2007. 
  9. Weizenbaum, Joseph (enero de 1966). «ELIZA--A Computer Program For the Study of Natural Language Communication Between Man and Machine». Communications of the ACM (Massachusetts Institute of Technology) 9: 36. doi:10.1145/365153.365168. Consultado el 17 de junio de 2008. 
  10. Suchman, Lucy A. (1987). Plans and Situated Actions: The problem of human-machine communication. Cambridge University Press. p. 24. ISBN 978-0-521-33739-7. Consultado el 17 de junio de 2008. 
  11. Weizenbaum, Joseph (1976). Computer power and human reason: from judgment to calculation. W. H. Freeman. p. 7. 
  12. Billings, Lee (16 de julio de 2007). «Rise of Roboethics». Seed. Archivado desde el original el 22 de noviembre de 2010. «(Joseph) Weizenbaum had unexpectedly discovered that, even if fully aware that they are talking to a simple computer program, people will nonetheless treat it as if it were a real, thinking being that cared about their problems - a phenomenon now known as the "Eliza Effect."». 

Referencias[editar]

  • Hofstadter, Douglas. Preface 4: The Ineradicable Eliza Effect and Its Dangers. (from Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought, Basic Books: New York, 1995)
  • Turkle, S., Eliza Effect: tendency to accept computer responses as more intelligent than they really are (from Life on the screen- Identity in the Age of the Internet, Phoenix Paperback: London, 1997)
  • ELIZA effect, desde Jargon File, version 4.4.7. Accesado el 8 de octubre de 2006.