Sesgo cognitivo

De Wikipedia, la enciclopedia libre
(Redirigido desde «Prejuicio cognitivo»)
Saltar a: navegación, búsqueda
En un experimento ideado por Wolfgang Köhler, se pide al sujeto que diga cuál de estas figuras se llama bouba y cuál kiki. La mayoría de los sujetos le asigna el nombre bouba a la figura de la derecha, quizá porque los labios se redondean para producir el sonido o porque en el alfabeto romano, las letras b, o y a tienen una forma más redondeada que k e i (puntiagudas).

Un sesgo o prejuicio cognitivo es un efecto psicológico que produce una desviación en el procesamiento de lo percibido, lo que lleva a una distorsión, juicio inexacto, interpretación ilógica, o lo que se llama en términos generales irracionalidad, que se da sobre la base de la interpretación de la información disponible, aunque los datos no sean lógicos o no estén relacionados entre sí.[1] [2] [3] Los sesgos sociales se denominan generalmente sesgos atribucionales y afectan a nuestras interacciones sociales de cada día, también están presentes en la probabilidad y toma de decisiones.

La existencia de sesgos cognitivos surge como necesidad evolutiva para la emisión inmediata de juicios que utiliza nuestro cerebro para asumir una posición rápida ante ciertos estímulos, problemas o situaciones, que debido a la incapacidad de procesar toda la información disponible se filtra de forma selectiva o subjetiva.[4] Si bien nos pueden conducir a errores que pueden ser graves, en determinados contextos conducen a acciones más eficaces o permiten adoptar decisiones más rápidas cuando la inmediatez es el mayor valor (heurística).[5]

La psicología cognitiva estudia este efecto, así como otras estrategias y estructuras que utilizamos para procesar la información, habiendo identificado una gran cantidad de ellos, con frecuencia relacionados entre sí.[6]

Desarrollo del concepto[editar]

Daniel Kahneman, pionero en la identificación de los sesgos cognitivos en los procesos económicos.

El sesgo cognitivo surge de diversos procesos que a veces son difíciles de distinguir. Estos incluyen procesamiento de la información mediante atajos (heurística),[5] motivaciones emocionales y morales,[7] o la influencia social.[8]

La noción de sesgo cognitivo fue introducida por Daniel Kahneman y Amos Tversky en 1972,[9] y surgió de su experiencia con la imposibilidad de las personas de razonar intuitivamente con órdenes de magnitud muy grandes, o anumerismo (innumeracy en inglés). Tanto ellos como otros investigadores demostraron la existencia de varios patrones de situaciones en que los que juicios y decisiones humanas diferían de lo predecible según la teoría de la elección racional. Explicaron estas diferencias en términos heurísticos, procesos intuitivos pero que introducen errores sistemáticos.[9] [10]

Estos experimentos se extendieron más allá de los programas de investigación ligados a la psicología académica hacia otras disciplinas como la medicina y la ciencia política.[11] y fue un factor importante en el surgimiento de la economía conductual, llevando a Kahneman a ganar el Premio Nobel de Economía en 2002 por haber integrado aspectos de la investigación psicológica en la ciencia económica, especialmente en lo que respecta al juicio humano y la toma de decisiones bajo incertidumbre.[12] Todas estas investigaciones condujeron a Tversky y Kahneman al desarrollo de la Teoría de las perspectivas como una alternativa más realista a la Teoría de la elección racional.

Los críticos de Kahneman y Tversky, como Gerd Gigerenzer, argumentan que la heurística no debe llevarnos a definir el pensamiento humano como plagado de sesgos cognitivos irracionales, sino más bien concebir la racionalidad como un instrumento de adaptación que no se ajusta idénticamente a las reglas de la lógica formal o de la probabilidad.[13] Algunos investigadores posteriores, tales como David Funder y Joachim Krueger han sugerido la posibilidad de ver los prejuicios cognitivos no como errores, sino como atajos empleados por los humanos a la hora de predecir y tomar decisiones, sobre todo cuando no hay mucha información.

Sesgos ampliamente estudiados[editar]

  • Sesgo retrospectivo o sesgo a posteriori: es la inclinación a ver los eventos pretéritos como predecibles.
  • Sesgo de correspondencia, denominado también error de atribución: es la tendencia de hacer excesivo énfasis en las explicaciones fundamentadas, comportamientos o experiencias personales de otras personas.
  • Sesgo de confirmación: es la tendencia a investigar o interpretar información que confirma preconcepciones.
  • Sesgo de autoservicio: es la tendencia a reclamar más responsabilidad para los éxitos que por los fallos. Se muestra también cuando la gente tiende a interpretar como beneficiosa para sus propósitos información ambigua.
  • Sesgo de falso consenso: es la tendencia experimentalmente corroborada de creer que las propias opiniones, creencias, valores y hábitos están más extendidos entre el resto de la población de lo que realmente lo están.
  • Sesgo de memoria: es un tipo de sesgo cognitivo, el cual puede mejorar o por el contrario desvirtuar las llamadas o peticiones a la memoria. El sesgo en la memoria puede alterar el contenido de lo que hemos recordado y hacernos notificar a los demás hechos que son erróneos.

La ética del prejuicio[editar]

Entendemos por prejuicio el tomar decisiones sin tener una experiencia propia, un hecho que evolutivamente parece estar extendido[cita requerida]. En psicología, este término hace referencia a la distorsión de la información que se produce en nuestro cerebro al procesarla. En el español de uso corriente la expresión "prejuicio cognitivo" se acerca más al significado de las palabras «tendencia», «sesgo» o «predisposición».

Con frecuencia se le asocian a la predisposición o prejuicio cognitivo, unas connotaciones éticas negativas, puesto que todo prejuicio, éticamente hablando, es injusto por definición, sin embargo la tendencia, o mejor dicho, la manera que tiene la conciencia de procesar la información, no debería ser catalogada éticamente, si se asume que ésta es el legado natural de la evolución. Así, la información prejuiciosa, en ciencia, no es éticamente reprobable, ya que es la manifestación de un modelo de comportamiento o proceso mental beneficioso para el individuo desde el punto de vista de la evolución. Lo que en ciencia es reprensible es el acto de evitar comprobar el prejuicio o solución, desde una postura científica, el situarse en una postura cerrada y fija y aislarse dando por ciertos los datos imaginados. Una postura cerrada y prejuiciosa va en detrimento de la adaptabilidad de los individuos siempre que no sea necesaria una reacción inmediata. Esto es debido a que al no disponer de información contrastada sino solo disponer de los sesgos y probabilidades (procedentes de los valores adquiridos) o tópicos inciertos (procedentes de vagas referencias de otros) reduce las posibilidades de usar la lógica para tomar decisiones correctas o para alcanzar la verdad. El cerebro y en general la evolución premia la supervivencia a corto plazo que nos permita la reproducción. El hombre ha evolucionado en otro tipo de ambiente donde la mejor estrategia es asegurarse a sobrevivir a corto plazo en lugar de una estrategia a largo plazo de búsqueda de la verdad. Sin embargo, aunque el prejuicio evolutivo y la intuición puede ser beneficioso en primer lugar para tomar decisiones rápidas sin información adicional, es un obstáculo para el avance, adaptabilidad y por tanto supervivencia de una sociedad. Esto es así porque los hechos veraces conducen a la predictibilidad, la predictibilidad permite la preparación y la creación de herramientas para el control de los resultados permitiendo cambiarlos, esto se produce gracias a que bajo premisas verdaderas se puede usar la lógica y el razonamiento. Una sociedad o cultura que busca la verdad, será más capaz de predecir y cambiar su futuro, esta posibilidad proporciona una gran ventaja de supervivencia. Así, una sociedad ve limitada el acceso a la verdad cuando ignora sus prejuicios. Esto no excluye que sea posible usar la verdad para planear malos escenarios futuros, por eso son importantes los mecanismos de control. Pero entonces la causa del problema sería "la aplicación" realizada y no la disponibilidad de la verdad.

El conocimiento y manera de pensar tendenciosos deben separarse de los actos prejuiciosos que son los que producen una ética reprobable. Así, por ejemplo, la ciencia nos dice que existe el planeta Urano, pero ya desde la infancia y sin comprobarlo porque se ha recibido sin razonarlo a una edad temprana, se cree de manera preferente en su existencia. El no comprobarlo científicamente el individuo es un acto que evita el gasto energético y de tiempo, de comprobarlo y que además proporciona estabilidad social.

  • Hoy en día se vive del prejuicio informativo de muchas fuentes porque el trabajo necesario de comprobarlo nos impediría vivir en sociedad. Por tanto, se ha hecho inevitable basarse en suposiciones, prejuicios o probabilidades, que la conciencia decide sesgar de una manera u otra en función de resultados anteriores, sin embargo, si nadie comprobara de manera regular la veracidad de la información, cuando la propia vida o una decisión depende de dicha veracidad, estaríamos hablando de un acto prejuicioso o negligencia. Así el acto de evitar la experimentación o no verificar la información desde una perspectiva informada y protegida, es un acto prejuicioso que en tal caso, sería reprobable. No es un acto negativo el pensar cautelosamente de manera prejuiciosa.
  • Al mismo tiempo, independientemente del cariz ético que adopta en la sociedad debido a la existencia de grupos sociales específicos, no solo el prejuicio sino los actos prejuiciosos han sido inevitables, ya que siempre ha sido necesario convencer a los aliados para dar incluso su vida por una causa que no es comprobable o que no sería viable comprobar dado el tiempo y número de personas que se necesitan. Los medios de información son los que ponen pruebas indirectas, y por tanto falsificables, que informan al grueso de la población.

Bajo esas premisas, la supervivencia, en un sentido evolutivo, pasa por adelantarse y asegurarse independientemente o sin tener en cuenta la veracidad de la información. Este conflicto entre la ética y lo que razonadamente debería hacerse y entre el egoísmo psicológico y lo que es más fácil y seguro para la propia supervivencia, es lo que, en función de los recursos, se da todos los días.

Eliminar los actos prejuiciosos y evitar la negligencia mediante la comprobación implica evitar en cierta medida el respeto o autocensura de las creencias establecidas, si esto quiere decir dejar de criticarlas. De hecho, la fortaleza de una creencia es mayor cuanto mejor ha solucionado el problema.

En el Método científico la crítica, debate, testeo, comprobación o maltrato de las ideas establecidas, consigue que algunas de ellas muten y se aproximen más a la verdad. El problema o negligencia no está en la crítica de las ideas, sino en la respuesta de la creencia al ataque ya que algunas obvian la respuesta razonada o incluso el silencio (Argumento a silentio) y responden con violencia (Argumento ad baculum) ya sea porque se creen poseedores de la verdad y no desean perder tiempo y energía en explicarla (Argumentum ad ignorantiam) o bien porque no les beneficia (Sesgo de Autoservicio) o son reacios al cambio (argumentum ad antiquitatem). Tanto lo uno como lo otro son comportamientos prejuiciosos que tienen su raíz en los prejuicios cognitivos.

Véase también[editar]

Referencias[editar]

  1. Kahneman, D.; Tversky, A. (1972). «Subjective probability: A judgment of representativeness». Cognitive Psychology 3 (3):  pp. 430–454. doi:10.1016/0010-0285(72)90016-3. 
  2. Baron, J. (2007). Thinking and deciding. New York, NY: Cambridge University Press.
  3. Ariely, D. (2008). Predictably irrational: The hidden forces that shape our decisions. New York, NY: HarperCollins.
  4. Simon, H. A. (1955). «A behavioral model of rational choice.» The Quarterly Journal of Economics, 69(1), 99 -118. doi 10.2307/1884852
  5. a b Kahneman, D., Slovic, P., & Tversky, A. (1982). Judgment under uncertainty: Heuristics and biases. Cambridge University Press.
  6. Sesgos cognitivos: cuando pensamos rápido y mal
  7. Pfister, H.-R., & Böhm, G. (2008). «The multiplicity of emotions: A framework of emotional functions in decision making.» Judgment and Decision Making, 3, 5-17.
  8. Wang, X. T., Simons, F., & Brédart, S. (2001). «Social cues and verbal framing in risky choice.» Journal of Behavioral Decision Making, 14(1), 1-15. doi <1::AID-BDM361>3.0.CO;2-N 10.1002/1099-0771(200101)14:1<1::AID-BDM361>3.0.CO;2-N
  9. a b Kahneman, Daniel; Shane Frederick (2002). «Representativeness Revisited: Attribute Substitution in Intuitive Judgment». En Thomas Gilovich, Dale Griffin, Daniel Kahneman. Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge: Cambridge University Press. pp. 51–52. ISBN 978-0-521-79679-8. 
  10. Cortada, N. (2008). «Los Sesgos Cognitivos en la Toma de Decisiones». International Journal of Psychological Research, ISSN 2011 – 7922. Vol. 1 No. 1. 68-73.
  11. Gilovich, Thomas; Dale Griffin (2002). «Heuristics and Biases: Then and Now». En Thomas Gilovich, Dale Griffin, Daniel Kahneman. Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge: Cambridge University Press. pp. 1–4. ISBN 978-0-521-79679-8. 
  12. [1] Nobelprize.org
  13. Gigerenzer, G. (2006). «Bounded and Rational». Contemporary Debates in Cognitive Science. Blackwell. p. 129. ISBN 1-4051-1304-9.  Parámetro desconocido |editor-apellidos= ignorado (ayuda); Parámetro desconocido |editor-nombre= ignorado (se sugiere |nombre-editor=) (ayuda)

Bibliografía[editar]

Enlaces externos[editar]