Sesgo de confirmación

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

El sesgo de confirmación o sesgo confirmatorio es la tendencia a favorecer la información que confirma las propias creencias o hipótesis.[1] La gente muestra esta tendencia cuando reúne o recuerda información de manera selectiva, o cuando la interpreta sesgadamente. El efecto es más fuerte en publicaciones con contenido emocional y en creencias firmemente enraizadas. Por ejemplo, al leer acerca de políticas sobre armas, la gente por lo general prefiere las fuentes que afirman sus posturas ya existentes. También tienden a interpretar que las pruebas ambiguas apoyan su postura existente. Se ha invocado la búsqueda sesgada, la interpretación y la memoria para explicar la polarización de las actitudes (cuando un desacuerdo se hace más extremo o polarizado a pesar de que las diferentes partes están expuestas a las mismas pruebas), la perseverancia de creencias (cuando las creencias de las personas persisten pese a que se ha demostrado su falsedad), el efecto de primacía irracional (cuando se tiene mayor confianza a las primeras experiencias tenidas con algún hecho, que a las más recientes) y la correlación ilusoria (cuando la gente falsamente percibe una asociación entre dos acontecimientos o situaciones).

Una serie de experimentos en los años sesenta sugirió que las personas están sesgadas hacia la confirmación de sus creencias existentes. Investigaciones posteriores reinterpretaron estos resultados como una tendencia a probar ideas de un modo unilateral, centrándose en una posibilidad e ignorando las alternativas. En ciertas situaciones, esta tendencia puede sesgar las conclusiones personales. Entre las explicaciones de las tendencias observadas se encuentran el pensamiento ilusorio y la limitada capacidad humana para procesar la información. Otra explicación es que las personas muestran un sesgo confirmatorio porque sopesan los costes de equivocarse más que el investigar de un modo neutral y científico.

El sesgo de confirmación contribuye al exceso de confianza en las creencias personales y puede mantener o reforzar estas creencias ante evidencias contrarias. Se han encontrado decisiones pobres debido a este sesgo en contextos militares, políticos y de organización.

Tipos[editar]

Los sesgos de confirmación son consecuencia del procesamiento de información, que no debe confundirse con la profecía autocumplida, en la que el comportamiento de la gente hace que sus expectativas se cumplan.[2] Algunos psicólogos usan el término "sesgo de confirmación" para referirse a cualquier forma por la que la persona evita rechazar una creencia, bien en la búsqueda de pruebas, en la interpretación de estas o en el momento de recordarlas. Otros restringen el término a la recopilación selectiva de pruebas.[3] [Nota 1]

Búsqueda sesgada de información[editar]

El sesgo de confirmación se ha descrito como un «sí a todo» interno que se repite en las creencias de la persona, algo que le ocurre a Uriah Heep, personaje de Charles Dickens.[4]

Los experimentos han encontrado en repetidas ocasiones que la gente tiende a probar hipótesis de un modo unilateral, buscando pruebas compatibles con la hipótesis que mantienen en un momento dado.[5] [6] En lugar de buscar entre todas las pruebas relevantes, se hacen preguntas formuladas de modo que una respuesta afirmativa apoye su hipótesis.[7] Buscan las consecuencias que esperarían si su hipótesis fuera verdadera, en lugar de lo que pasaría si fuera falso.[7] Por ejemplo, alguien que trata de identificar un número y se vale para ello de preguntas con respuesta sí/no y sospecha que el número es el 3 podría preguntar, «¿es un número impar?». La gente prefiere este tipo de pregunta, llamada «prueba positiva», incluso cuando una prueba negativa como «¿es un número par?» proporcionaría exactamente la misma información.[8] Sin embargo, esto no significa que la gente busque pruebas que aseguren una respuesta positiva. En estudios donde los sujetos podían seleccionar entre tales pseudopruebas o entre diagnósticos genuinos, favorecieron los diagnósticos genuinos.[9] [10]

La preferencia por las pruebas positivas no es un sesgo en sí mismo, ya que las pruebas positivas pueden ser sumamente informativas.[11] Sin embargo, en conjunción con otros efectos, esta estrategia puede confirmar creencias o suposiciones existentes, independientemente de si son verdaderas.[12] En situaciones de la vida real, las pruebas son a menudo complejas y variadas. Por ejemplo, varias ideas contradictorias sobre alguien podrían apoyarse de manera independiente concentrándose en un aspecto de su comportamiento.[6] Así si alguien busca pruebas a favor de una hipótesis probablemente tenga éxito.[12] Una ilustración de esto es el modo en el que la formulación de una pregunta puede cambiar considerablemente la respuesta.[6] Por ejemplo, si se pregunta «¿es usted feliz con su vida social?», los encuestados muestran un grado de satisfacción mayor al de aquellos a los que se les preguntó «¿es usted infeliz con su vida social?».[13]

Incluso un pequeño cambio en la formulación de una pregunta puede afectar al modo en el que la gente busca entre la información disponible y de ahí las conclusiones que alcanzan. Esto se demostró usando un caso ficticio de custodia infantil.[14] Los sujetos leyeron de múltiples maneras que el padre A era razonablemente adecuado para ser el tutor. El padre B tenía una mezcla de cualidades destacadas positivas y negativas: una relación cercana con el niño pero a su vez un trabajo que le alejaría de él durante períodos largos. Cuando preguntaron «¿Qué padre debería tener la custodia del niño?», el sujeto buscó atributos positivos y una mayoría escogió al padre B. Sin embargo, cuando la pregunta era «¿a qué padre se le debería negar la custodia del niño?» buscaron atributos negativos, pero de nuevo una mayoría contestó que el padre B, lo que implica que el padre A debería tener la custodia.[14]

Estudios similares han demostrado cómo la gente se embarca en una búsqueda parcial de información, pero también que este fenómeno puede verse limitado por una preferencia por pruebas diagnósticas. En un experimento inicial, los sujetos tenían que puntuar a otra persona en una dimensión sobre la introversión-extraversión de su personalidad tomando como base una entrevista. Escogieron las preguntas para la entrevista de una lista dada. Cuando el entrevistado les era presentado como un introvertido, los sujetos seleccionaron preguntas que presumieran introversión, como por ejemplo: «¿Qué encuentra usted desagradable en las fiestas ruidosas?» Y cuando el entrevistado era descrito como extravertido, casi todas las preguntas asumían la extraversión, como «¿Qué haría usted para animar una fiesta aburrida?». Estas cuestiones hacían que los entrevistados apenas tuvieran opciones para refutar los atributos de personalidad que se les habían asignado.[15] No obstante, una versión posterior del experimento daba a los sujetos menos preguntas que partieran de presunciones, como «¿Huyes de las interacciones sociales?».[16] Los sujetos prefirieron preguntar este tipo de cuestiones (mejores para diagnosticar), mostrando solo un débil sesgo hacia las preguntas positivas. Este patrón de una preferencia principal por las preguntas diagnósticas y una más débil por las cuestiones positivas se ha replicado en otros estudios.[16]

Otro experimento otorgaba a los sujetos una prueba particularmente compleja de regla-descubrimiento que requería el movimiento de objetos en simulación por ordenador.[17] Los objetos que aparecían en la pantalla del ordenador seguían unas leyes específicas que los sujetos debían comprender, pudiendo «disparar» los objetos por la pantalla para probar sus hipótesis. A pesar de los muchos intentos durante una sesión de diez horas, ninguno de los sujetos averiguó qué reglas seguía el sistema. Típicamente trataban de confirmar sus hipótesis en lugar de refutarlas, mostrándose reacios a considerar alternativas. Incluso tras ver pruebas que, objetivamente, refutaban sus hipótesis, con frecuencia continuaban haciendo los mismos tests. Algunos sujetos fueron instruidos en formas apropiadas de testar hipótesis pero estas instrucciones apenas tuvieron efecto.[17]

Interpretación sesgada[editar]

Las personas inteligentes creen cosas raras porque han sido entrenados para defender creencias a las que llegaron por razones no inteligentes.

Los sesgos de confirmación no están limitados a la recopilación de pruebas. Incluso si dos individuos tienen la misma información, el modo en el que la interpretan puede estar sesgado.

Un equipo de la Universidad de Stanford llevó a cabo un experimento con sujetos que tenían una opinión muy formada sobre la pena capital, con la mitad de ellos a favor y la mitad en contra.[19] [20] Cada uno de estos sujetos leyó las descripciones de dos estudios: una comparación de los estados de los Estados Unidos con y sin pena de muerte y una comparación de las estadísticas de asesinatos en un estado antes y después de la introducción de la pena de muerte. Tras una lectura rápida de la descripción de cada estudio, se les preguntó a los sujetos si sus opiniones habían cambiado. Después leyeron una relación mucho más detallada del procedimiento de cada estudio y tenían que considerar en qué medida consideraban bien elaborada y convincente la investigación.[19] De hecho, los estudios eran ficticios. A la mitad de los sujetos se les dijo que una clase de estudio apoyaba el efecto disuasorio y que el otro lo había minado, mientras que a otros sujetos se les presentaron las conclusiones cambiadas.[19] [20]

Los sujetos, tanto los defensores como los detractores, relataron un ligero cambio en sus posiciones en la dirección del primer estudio que habían leído. Una vez que leyeron las descripciones más detalladas de los dos estudios, casi todos volvieron a sus creencias originales, independientemente de las pruebas aportadas, resaltando los detalles que apoyaban su punto de vista y desatendiendo cualquier detalle contrario. Los sujetos describieron los estudios que apoyaban su punto de vista preexistente como superiores a aquellos que lo contradecían, de modo detallado y específico.[19] [21] Escribiendo sobre un estudio que pareció minar el efecto disuasorio, un defensor de la pena de muerte escribió: «La investigación no cubrió un período lo suficientemente largo de tiempo», mientras que un detractor comentó sobre el mismo estudio: «No hay ninguna prueba fuerte que pueda contradecir las investigaciones que se han presentado».[19] Los resultados ilustraron que la gente establece estándares más altos en las pruebas para hipótesis que están en contra de sus expectativas vigentes. Este efecto, conocido como «sesgo de desconfirmación», ha sido apoyado por otros experimentos.[22]

Un escáner para la obtención de imágenes por resonancia magnética permitió a los investigadores examinar cómo lidia el cerebro humano con información no bienvenida.

Un estudio de interpretación sesgada tuvo lugar durante las elecciones presidenciales de Estados Unidos de 2004 e implicó a sujetos que se describieron a sí mismos como personas con fuertes opiniones hacia los candidatos. Les mostraron pares de declaraciones, al parecer contradictorias, del candidato republicano George W. Bush, el candidato democrático John Kerry o una figura pública políticamente neutra. También se les dieron declaraciones que hacían que la aparente contradicción pareciese razonable. Con estas tres informaciones, tuvieron que decidir si las declaraciones de cada individuo eran o no inconsistentes. Había grandes diferencias en las evaluaciones, los sujetos interpretaban con mayor probabilidad las declaraciones del candidato al que se oponían como contradictorias.[23]

En este experimento, los sujetos emitieron sus opiniones mientras su actividad cerebral era supervisada mediante imágenes por resonancia magnética. Cuando los sujetos evaluaban las declaraciones contradictorias del candidato del que son partidarios, los centros emocionales de sus cerebros se activaron. Esto no pasó con las declaraciones de los otros candidatos. Los experimentadores dedujeron que las diferentes respuestas a las declaraciones no se debían a errores pasivos de razonamiento, sino que los sujetos activamente reducían la disonancia cognitiva inducida por la lectura sobre el comportamiento irracional e hipócrita del candidato del que son partidarios.[23]

La interpretación sesgada no está restringida a asuntos emocionalmente significativos. En otro experimento, se les contó a los sujetos una historia sobre un robo. Tenían que puntuar la importancia probatoria de las declaraciones discutiendo a favor o en contra de que un personaje particular fuera responsable. Cuando plantearon la hipótesis de la culpa de un personaje, puntuaron las declaraciones que apoyaban esa hipótesis como más importante que las declaraciones contrarias.[24]

Sesgo de memoria[editar]

Incluso si alguien ha buscado y ha interpretado pruebas de manera neutral, todavía puede recordarlas selectivamente para reforzar sus expectativas. Se denomina a este efecto «memoria selectiva», «memoria confirmatoria» o « memoria de acceso sesgado».[25] Las teorías psicológicas difieren en sus predicciones sobre la memoria selectiva. La teoría de esquema predice que la información que concuerda con las expectativas previas será más fácilmente almacenada y recordada.[26] Algunos enfoques alternativos dicen que la información sorprendente es más destacable y se recuerda mejor.[26] Las predicciones de ambas teorías han sido confirmadas en contextos experimentales diferentes, sin que ninguna teoría se imponga de manera rotunda.[27]

En un estudio, los sujetos leían un perfil de una mujer que presentaba una mezcla de comportamientos introvertidos y extravertidos.[28] Más tarde tuvieron que recordar los ejemplos de su introversión y extraversión. A un grupo se le dijo que era para valorar a la mujer de cara a un trabajo como bibliotecaria, mientras que a un segundo grupo se le dijo que era para un trabajo de ventas inmobiliarias. Había una diferencia significativa entre lo que estos dos grupos recordaron: el grupo del trabajo de bibliotecaria recordó más ejemplos de introversión y los del grupo de ventas recordaron comportamientos más extravertidos.[28] También se ha mostrado un efecto de memoria selectiva en los experimentos que manipulan el atractivo de los tipos de personalidad.[26] [29] En uno de estos, a un grupo de sujetos se les mostraron evidencias de que las personas extravertidas son más exitosas que los introvertidos, mientras que a otro grupo se le dijo lo contrario. En un estudio posterior, aparentemente sin relación, se les pidió recordar acontecimientos de sus vidas en los que habían sido introvertidos o extravertidos. Cada grupo de sujetos proporcionó más recuerdos relacionadas con el tipo de personalidad más deseable y los rememoró más rápidamente.[30]

Un estudio mostró cómo la memoria selectiva puede mantener la creencia en la percepción extrasensorial.[31] A creyentes e incrédulos se les mostró una descripción de experimentos de percepciones extrasensoriales. A la mitad de cada grupo se les dijo que los resultados experimentales apoyaban la existencia de la percepción extrasensorial, mientras que a los demás se les dijo que no lo hacía. En una prueba posterior, los sujetos recordaron el material con exactitud, excepto los creyentes que habían leído pruebas que no apoyaban la percepción extrasensorial. Este grupo recordó menos información y alguna de esta incorrectamente, recordando que los resultados apoyaban la percepción extrasensorial.[31]

Efectos relacionados[editar]

Polarización de la actitud[editar]

Cuando personas con puntos de vista opuestos interpretan nueva información de un modo sesgado, sus puntos de vista pueden llegar a separarse más. Es lo que se denomina polarización de las actitudes.[32] El efecto fue demostrado con un experimento que implicaba extraer una serie de bolas rojas y negras de una de las dos «cestas de bingo» ocultas. Los sujetos sabían que una cesta contenía un 60 % de bolas negras y un 40 % de rojas, y que la otra, el 40 % de negras y el 60 % de rojas. Los experimentadores observaron qué ocurría cuando se extraían bolas de colores alternos en una secuencia que no favorecía a ninguna de las cestas. Tras la extracción de cada bola, se pidió a los sujetos de un grupo declarar en voz alta sus opiniones sobre la probabilidad de que las bolas se estuvieran extrayendo de una u otra cesta. Estos sujetos tendían a tener más seguridad con cada sucesiva extracción ―si al principio pensaron que la cesta con el 60 % de pelotas negras o la del 60 % de pelotas rojas era la fuente más probable, su estimación de la probabilidad aumentó―. A otro grupo de sujetos se le pidió declarar la probabilidad estimada solo al final de una secuencia de extracciones, en lugar de después de cada bola. No mostraron el efecto de la polarización, lo que sugiere que esta no ocurre necesariamente cuando las personas simplemente sostienen posiciones contrarias, sino más bien cuando confían abiertamente en ellas.[33]

Las opiniones encontradas sobre un tema como la tenencia de armas pueden sesgar la manera en que alguien interpreta nuevas pruebas.

Un estudio menos abstracto fue el experimento de interpretación sesgada de Stanford, en el cual los sujetos con fuertes opiniones sobre la pena de muerte leyeron sobre pruebas experimentales de ambas posturas. El 23 % de los sujetos señalaron que sus percepciones se habían hecho más extremas y este cambio autorrelatado se correlacionaba fuertemente con sus actitudes iniciales.[19] En experimentos posteriores, los sujetos también informaron de que sus opiniones se hacían más extremas en respuesta a la información ambigua. Sin embargo, las comparaciones de sus actitudes antes y después de nuevas pruebas no mostraron ningún cambio significativo, sugiriendo que los cambios autorrelatados pudieran no ser reales.[22] [32] [34] Basándose en estos experimentos, Deanna Kuhn y Joseph Lao concluyeron que la polarización es un fenómeno real que lejos de ser inevitable, solo ocurre en una pequeña minoría de casos. Encontraron que se incitaba no solo por considerar pruebas de ambas posturas, sino por simplemente pensar en el tema.[32]

Charles Taber y Milton Lodge alegaron que el resultado del equipo de Stanford había sido difícil de reproducir porque los argumentos usados en experimentos posteriores eran demasiado abstractos o confusos como para evocar una respuesta emocional. En el estudio de Taber y Lodge usaron cuestiones cargadas emocionalmente sobre el control de armas y la discriminación positiva.[22] Midieron las actitudes de los sujetos hacia estos temas antes y después de la lectura de argumentos sobre cada postura del debate. Dos grupos de sujetos mostraron una polarización de la actitud: aquellos con opiniones previas fuertes y los que estaban políticamente concienciados. En parte de este estudio, los sujetos eligieron qué fuentes de información querían leer de una lista preparada por los experimentadores. Por ejemplo, podrían leer los argumentos del control de armas de la Asociación Nacional del Rifle. Incluso cuando fueron instruidos para ser imparciales, los sujetos leían con mayor probabilidad los argumentos que apoyaban sus actitudes existentes. Esta búsqueda parcial de información se correlaciona bien con el efecto de polarización.[22]

Persistencia de creencias desacreditadas[editar]

Las creencias pueden sobrevivir a potentes desafíos lógicos o empíricos. Pueden sobrevivir e incluso salir reforzadas por las pruebas que la mayoría de observadores sin compromiso considerarían debilitadoras lógicas de tales creencias. Pueden incluso sobrevivir a la total destrucción de su base probatoria original.
—Lee Ross y Craig Anderson[35]

El sesgo de confirmación puede usarse para explicar por qué algunas creencias permanecen cuando las pruebas iniciales en su favor son revocadas.[36] Este efecto de creencia persistente se ha mostrado en una serie de experimentos usando lo que se denomina «paradigma del informe»: los sujetos examinan pruebas falsificadas de una hipótesis, se mide su cambio de actitud y después se les dice que esas pruebas eran ficticias. Se mide una vez más sus actitudes para ver si su creencia vuelve a su nivel anterior.[35]

Un hallazgo típico es que al menos una parte de la creencia inicial se mantiene aún después de una completa refutación.[37] En un experimento, los sujetos tuvieron que distinguir entre notas de suicidio verdaderas y falsas. La retroalimentación fue aleatoria: dijeron a unos que lo habían hecho bien, mientras que a otros se les dijo que lo habían hecho mal. Incluso después de que se les contara la verdad, los sujetos aún estaban bajo la influencia de la retroalimentación. Todavía pensaban que eran mejor o peor que el promedio en aquella clase de tarea, dependiendo de lo que al principio se les hubiera dicho.[38]

En otro estudio, los sujetos leyeron las valoraciones de la actuación de dos bomberos, con sus respuestas a una prueba de aversión al riesgo.[35] Los datos ficticios se retocaron para mostrar correlación negativa o positiva entre la actitud de toma de riesgos y éxito en el trabajo.[39] Incluso si estos estudios hubieran sido ciertos, habrían sido pruebas científicamente pobres. Sin embargo, los sujetos las encontraron subjetivamente persuasivas.[39] Cuando se les mostró que los estudios eran falsos, la creencia de los sujetos sobre la correlación disminuyó, pero más o menos la mitad del efecto original permaneció.[35] Las entrevistas de seguimiento establecieron que los sujetos habían entendido el informe y se lo habían tomado en serio. Los sujetos parecían confiar en el informe, pero consideraron la información desacreditante como irrelevante para sus creencias personales.[39]

Preferencia por la información primaria[editar]

Los experimentos han mostrado que la información se pondera con más fuerza cuando aparece pronto en una serie, incluso cuando el orden no es relevante. Por ejemplo, la gente se forma una impresión más positiva de alguien descrito como «inteligente, trabajador, impulsivo, crítico, obstinado y envidioso» que cuando se dan las mismas palabras en orden inverso.[40] Este efecto de primacía irracional es independiente del efecto de primacía de la memoria, en el que los elementos más tempranos de una serie dejan una huella más fuerte en la memoria.[40] La interpretación sesgada ofrece una explicación para este efecto: al ver las pruebas iniciales, las personas forman una hipótesis que afecta a la manera en que interpretan el resto de la información.[36]

Una demostración de primacía irracional tuvo lugar mediante la supuesta extracción de fichas coloreadas de dos urnas. Se les dijo a los sujetos la distribución en las urnas por colores y tuvieron que estimar la probabilidad de que una ficha hubiera sido extraída de una de ellas.[40] De hecho, los colores aparecían en un orden concertado. Las primeros treinta extracciones favorecieron a una urna y las siguientes treinta favorecieron a la otra.[36] La serie en su conjunto era neutra, por lo que racionalmente hablando, la probabilidad de cada urna era idéntica. Sin embargo, tras sesenta extracciones, los sujetos optaron por la urna de las primeras treinta extracciones.[40]

Otro experimento conllevó una exposición de diapositivas de un solo objeto, visto como una imagen borrosa al principio y con una ligera mejora en el enfoque con cada diapositiva sucesiva.[40] Tras el pase de cada diapositiva, los sujetos debieron exponer su mejor conjetura sobre qué era el objeto. Los sujetos con unas conjeturas iniciales erróneas persistieron en ellas, incluso cuando el cuadro estaba lo suficientemente enfocado como para que se pudiera identificar fácilmente el objeto.[36]

Correlación ilusoria entre eventos[editar]

La correlación ilusoria es la tendencia a ver correlaciones inexistentes en un conjunto de datos.[41] Esta tendencia se demostró por primera vez en una serie de experimentos a finales de la década de 1960.[42] En un experimento, los sujetos leían un conjunto de estudios de casos psiquiátricos, incluyendo respuestas al test de Rorschach. Se constató que los hombres homosexuales relatan con una mayor probabilidad ver nalgas, anos o figuras sexualmente ambiguas en las imágenes del conjunto.[cita requerida] De hecho, los estudios eran falsos y, una versión del experimento, se había construido de modo que los hombres homosexuales relataran con una menor probabilidad ver estas imágenes.[41] En un estudio, un grupo de psicoanalistas experimentados informaron del mismo conjunto de asociaciones ilusorias con la homosexualidad.[41] [42]

Otro estudio registró los síntomas experimentados por pacientes de artritis junto con las condiciones meteorológicas durante un período de quince meses. Casi todos los pacientes afirmaron que sus dolores estaban correlacionados con las condiciones meteorológicas, aunque la verdadera correlación fuese cero.[43]

Este efecto es una especie de interpretación sesgada en la que las pruebas objetivamente neutras o las evidencias desfavorables se interpretan para apoyar creencias existentes. También está relacionado con sesgos en la comprobación de hipótesis.[44] En la valoración de si dos acontecimientos, como la enfermedad y el mal tiempo, están correlacionados, la gente confía mucho en el número de casos positivo-positivo: en este caso, situaciones con dolor y mal tiempo. Por el contrario, prestan relativamente poca atención a otras clases de observaciones (ningún dolor y/o buen tiempo).[45] Esto resulta análogo a la confianza sobre las pruebas positivas en pruebas de hipótesis.[44] También puede reflejar una memoria selectiva, en la que se puede tener una percepción de que dos acontecimientos están correlacionados porque es más fácil recordar las veces en las que se dieron juntos.[44]

Ejemplo
Días Lluvia Sin lluvia
Artritis 14 6
Sin artritis 7 2

En el ejemplo ficticio anterior, los síntomas de la artritis aparecían con más probabilidad durante los días sin lluvia. Sin embargo, la gente probablemente se centra en el relativamente gran número de días en los que llueve y aparecen los síntomas. Centrándose en una casilla de la tabla más que en el conjunto de las cuatro, la gente puede percibir erróneamente la relación, en este caso asociando la lluvia con los síntomas de la artritis.[46]

Historia[editar]

Observación informal[editar]

Antes de las investigaciones psicológicas sobre el sesgo de confirmación, el fenómeno ya había sido observado de manera anecdótica por escritores, como el historiador griego Tucídides, el poeta italiano Dante Alighieri, el filósofo y científico inglés Francis Bacon[47] y el autor ruso León Tolstói. Tucídides escribió en Historia de la Guerra del Peloponeso: «Pues los hombres tienen por costumbre (…) rechazar con razonamientos arbitrarios lo que no les gusta».[48] En La Divina Comedia, Tomás de Aquino advierte a Dante cuando se encuentran en el Paraíso: «Una opinión con frecuencia puede inclinarse precipitadamente al lado equivocado y después el cariño a las opiniones propias ata, restringe la mente».[49]

El entendimiento humano, una vez que ha adoptado una opinión […] dibuja todo lo demás para apoyar y mostrar conformidad con ella. Y pese a haber un gran número de ejemplos, y de peso, que muestran lo contrario, los ignora o desprecia, prescinde de ellos o los rechaza.

Francis Bacon, en Novum órganum[50]

Bacon dijo que la valoración sesgada de las evidencias conducía «todas las supersticiones, tanto en astrología, como en sueños, presagios, juicios divinos o gustos».[50] En su ensayo «¿Qué es el arte?», Tolstói escribió:

Sé que la mayoría de hombres —no sólo aquellos considerados listos, sino incluso quienes son muy listos y capaces de comprender los más difíciles problemas científicos, matemáticos, o filosóficos— puede muy raramente vislumbrar incluso la verdad más sencilla y más obvia como si les obligara a admitir la falsedad de las conclusiones que se habían formado, quizás con mucha dificultad —conclusiones de las que están orgullosos, que han enseñado a otros y sobre las que han construido sus vidas—.

[51]

Investigaciones de Wason en pruebas de hipótesis[editar]

El término «sesgo de confirmación» fue acuñado por el psicólogo inglés Peter Cathcart Wason.[52] En un experimento publicado en 1960, desafió a los sujetos a que identificaran una regla que aplicaba en tres números. Al principio, se les dijo que (2, 4, 6) cumplía con la regla. Así los sujetos podían crear sus propias series y el investigador les confirmaba si la serie cumplía o no con la regla.[53] [54]

Aunque la regla ciertamente era sencilla («cualquier secuencia creciente»), los sujetos encontraron grandes dificultades para averiguarla, decantándose con frecuencia por reglas mucho más complejas, como «el número del medio es la media del primero y el último».[53] Los sujetos parecían probar únicamente ejemplos positivos, con secuencias que cumplían con su hipotética regla. Por ejemplo, si consideraban que la regla era «cada número es dos unidades mayor que su predecesor», creaban series que cumplieran esta regla, como (11,13,15) en lugar de secuencias como (11,12,19), que no la cumplirían.[55]

Wason aceptó el falsacionismo, según el cual una prueba científica de una hipótesis es un intento serio de falsarla. Interpretó que sus resultados mostraban una preferencia por la confirmación sobre la falsación, acuñando el término «sesgo de confirmación».[Nota 2] [56] Wason usó este sesgo para explicar los resultados de su experimento de tarea de selección.[57] En esta tarea, los sujetos reciben información parcial sobre una serie de objetos y tienen que especificar qué información a mayores necesitarían para confirmar si existe o no una regla condicional («si ocurre A, entonces B»). Los resultados han mostrado en repetidas ocasiones que las personas sometidas a este test ignoran información que podría refutar la regla de manera potencial.[58] [59]

Crítica de Klayman y Ha[editar]

En 1987 una publicación de Joshua Klayman y Young-Won Ha argumentó que los experimentos de Wason no habían demostrado con certeza la existencia de un sesgo hacia la confirmación. Por el contrario, Klayman y Ha interpretaban los resultados en términos de tendencia a hacer pruebas conforme a la hipótesis.[60] Lo denominaron «estrategia del test positivo».[6] Esta estrategia es un ejemplo de heurística: un razonamiento corto que es imperfecto pero fácil de calcular.[1] Klayman y Ha utilizaron la probabilidad bayesiana y la teoría de la información como sus estándares para la prueba de hipótesis, en lugar del falsacionismo de Wason. Según estas ideas, cada respuesta a una pregunta contiene una cantidad diferente de información, que depende de las creencias previas de la persona. Así, del test científico de una hipótesis es del que se espera una mayor información. Puesto que el contenido de la información depende de las probabilidades iniciales, un test positivo puede ser altamente informativo o desinformativo. Klayman y Ha argumentaron que cuando una persona piensa acerca de problemas realistas, está buscando una respuesta específica con una pequeña probabilidad inicial. En este caso los tests positivos son con frecuencia más informativos que los negativos.[11] Sin embargo, en la tarea de selección de Wason la respuesta (tres números en orden ascendente) es muy amplia, por lo que resulta poco probable que tests positivos arrojaran respuestas informativas. Klayman y Ha apoyaron sus análisis citando un experimento que utilizaba las etiquetas «DAX» y «MED» en lugar de «cumple la regla» y «no cumple la regla». Esto evitó dar a entender que el objetivo era encontrar una regla de escasa probabilidad. Los sujetos tuvieron mucho más éxito con esta versión del experimento.[61] [62]

Entre todas las posibles combinaciones de tres números, aquellas que encajan con la regla verdadera se muestran esquemáticamente como un círculo. La regla planteada como hipotética es un círculo más pequeño incluido en él.
Si la regla verdadera (T) engloba la hipótesis actual (H), entonces los tests positivos (examinar una H para ver si es T) no mostrarán que la hipótesis es falsa.
Dos círculos solapados representan la regla verdadera y la regla planteada como hipotética. Cualquier observación que encaje en las partes de los círculos que no se solapan muestra que las dos reglas no son exactamente lo mismo. En otras palabras, esas observaciones falsan la hipótesis.
Si la regla verdadera (T) solapa la hipótesis actual (H), entonces tanto un test negativo como positivo pueden falsar potencialmente H.
Los tres números que cumplen la hipótesis se representan como un círculo dentro de todas las posibles combinaciones de tres cifras. La regla verdadera es un círculo más pequeño dentro de este.
Cuando la hipótesis que funciona (H) incluye la regla verdadera (T), entonces los tests positivos son la única vía para falsar H.

A raíz de esta y otras críticas, el objetivo de las investigaciones pasó de confirmación contra falsación a examinar si las personas prueban las hipótesis en una forma informativa o en una forma poco informativa pero positiva. La búsqueda de un «verdadero» sesgo de confirmación llevó a los psicólogos a observar un rango más amplio de efectos en cómo procesan las personas la información.[63]

Explicaciones[editar]

El sesgo de confirmación se describe con frecuencia como el resultado de un procesamiento automático. Los individuos no utilizan estrategias engañosas para falsear los datos, sino formas de procesamiento de información que tienen lugar de manera más o menos no intencionada.[12] [64] Según Robert Maccoun, la mayoría de los procesamientos sesgados de pruebas ocurren de manera no intencionada mediante una combinación de mecanismos «calientes» (motivados) y «fríos» (cognitivos).[65]

Las explicaciones cognitivas para el sesgo de confirmación se basan en las limitaciones de la capacidad de la persona para ocuparse de tareas complejas y los atajos, llamados «heurísticas», que usa.[66] Por ejemplo, la gente puede juzgar la fiabilidad de las pruebas utilizando la heurística de disponibilidad, como por ejemplo con qué facilidad viene a la mente una idea particular.[67] También es posible que la gente pueda centrarse en un único pensamiento por momento, por lo que encuentran difícil probar hipótesis alternativas paralelamente.[68] Otra heurística es la estrategia del test positivo identificada por Klayman y Ha, en la que las personas prueban una hipótesis examinando casos en los que esperan que ocurra el suceso. La heurística evita la tarea difíciles o imposible de determinar en qué medida servirá para diagnosticar una pregunta. Sin embargo, no es algo universalmente confiable, de manera que la gente puede pasar por alto desafíos a sus creencias existentes.[11] [69]

Las explicaciones motivacionales incluyen el efecto del deseo en las creencias, algo en ocasiones denominado «pensamiento ilusorio».[70] [71] Se sabe que la gente prefiere los pensamientos placenteros sobre los desagradables, algo denominado principio de Pollyanna.[72] Aplicado a argumentos o fuentes de evidencias, esto podría explicar por qué es más probable que las conclusiones deseadas sean consideradas ciertas.[70] Según los experimentos que manipulan la conveniencia de la conclusión, la gente demanda un estándar mayor de pruebas para ideas difíciles de aceptar y estándar menor para ideas más aceptables. En otras palabras, preguntan «¿puedo creer esto?» para algunas preguntas y «¿debo creer esto?» para otras.[73] [74] Aunque la consistencia es una característica deseable de las posturas, una excesiva búsqueda de ella puede ser otra fuente potencial de sesgo ya que puede impedir una evaluación neutral de información nueva y sorprendente.[70] El psicólogo social Ziva Kunda combina las teorías cognitiva y motivacional, argumentando que la motivación crea el sesgo pero que los factores cognitivos determinan su tamaño.[75]

Las explicaciones en términos de análisis de coste-beneficio presumen que la gente no solo prueba hipótesis de una forma desinteresada, sino que calcula el coste de los diferentes errores.[76] Utilizando ideas de la psicología evolucionista, James Friedrich sugiere que la gente no apunta primeramente hacia la verdad al probar hipótesis, sino que tratan de evitar los errores más costosos. Por ejemplo, los empleadores pueden realizar cuestiones sobre una determinada materia porque se centran en eliminar candidatos que no den el perfil.[77] El refinamiento de Yacoov Trope y Akiva Liberman de esta teoría presupone que las personas comparan los dos tipos diferentes de error: aceptar una hipótesis falsa o rechazar una verdadera. Por ejemplo, alguien que subestima la honradez de un amigo puede tratarlo con desconfianza y que eso mine la amistad. Sobrestimar la honradez de un amigo puede también ser costoso, pero menos. En este caso, sería racional buscar, evaluar y o recordar pruebas de su honestidad de una manera sesgada.[78] Cuando alguien da una impresión inicial de ser introvertido o extravertido, las cuestiones que se relacionan con esa impresión se vuelven más empáticas.[79] Esto sugiere que cuando se habla a alguien que parece ser introvertido, es una muestra de posesión de mejores habilidades sociales el preguntar: «¿Te sientes incómodo en situaciones sociales?» en lugar de «¿Te gustan las fiestas ruidosas?». La conexión entre el sesgo de confirmación y las habilidades sociales se confirmó en un estudio que analizaba de qué manera los universitarios conocen a otras personas. Los estudiantes altamente autosupervisados, que son más sensibles a su entorno y a las normas sociales, realizaron un mayor número de preguntas adecuadas cuando entrevistaban a un miembro importante de un staff que cuando tenían que conocer a compañeros estudiantes.[79]

Consecuencias[editar]

En las finanzas[editar]

El sesgo de confirmación puede llevar a los inversores a sobreconfiarse, ignorando pruebas de que sus estrategias les harán perder dinero.[4] [80] En estudios de mercados de valores políticos, los inversores lograron mayores beneficios cuando se resistieron al sesgo. Por ejemplo, los participantes que interpretaron la actuación de un candidato en un debate de manera neutral tenían más posibilidades de obtener beneficios.[81] Para combatir el efecto del sesgo confirmatorio, los inversores pueden tratar de adoptar el punto de vista contrario «por el propósito de discutir».[82] En una técnica, los inversores imaginan que pierden sus inversiones y se preguntan a sí mismos por qué podría ocurrir esto.[4]

En la salud física y mental[editar]

Raymond Nickerson, psicólogo, culpa al sesgo de confirmación de los tratamientos médicos ineficaces que se usaron durante siglos hasta la llegada de la medicina científica.[83] Si un paciente se recuperaba, las autoridades médicas consideraban el tratamiento como exitoso, en lugar de buscar explicaciones alternativas como que la enfermedad había agotado su curso natural.[83] La asimilación sesgada es un factor en el llamamiento moderno a la medicina alternativa, cuyos defensores están influidos por pruebas positivas anecdóticas pero tratan las pruebas científicas de manera altamente crítica.[84] [85] [86]

La terapia cognitiva fue desarrollada por Aaron T. Beck a comienzos de la década de 1960 y se ha convertido en un enfoque popular.[87] Según Beck, el procesamiento sesgado de información es un factor de la depresión.[88] Su enfoque enseña a la gente a tratar las pruebas de manera imparcial en lugar de reforzar selectivamente perspectivas negativas.[47] También se ha mostrado que las fobias y la hipocondría involucran un sesgo confirmatorio para información amenazadora.[89]

En la política y el Derecho[editar]

Los juicios falsos permitieron a los investigadores examinar el sesgo de confirmación en situaciones realistas.

Nickerson afirma que en los contextos judicial y político en ocasiones se sesgan los razonamientos subconscientemente, favoreciendo las conclusiones que jueces, jurados o gobiernos ya han tomado con anterioridad.[90] Puesto que las pruebas en un juicio con jurado pueden ser complejas y los miembros de ese jurado con frecuencia toman decisiones sobre el veredicto en etapas tempranas de la deliberación, resulta razonable esperar un efecto de polarización de las actitudes. La predicción de que los miembros del jurado tomarán puntos de vista más extremos a medida que ven más pruebas se ha confirmado en experimentos con juicios falsos.[91] [92] Tanto los sistemas de justicia criminal inquisitivos como acusatorios se han visto afectados por el sesgo confirmatorio.[93]

El sesgo confirmatorio puede ser un factor a tener en cuenta a la hora de crear o extender conflictos, de debates cargados emocionalmente a guerras: al interpretar las pruebas a favor de la postura propia, cada parte puede considerar su postura como la más acertada.[94] Por otro lado, puede causar que la gente ignore o interprete erróneamente los signos de un conflicto inminente o incipiente. Por ejemplo, los psicólogos Stuart Sutherland y Thomas Kida han expuesto que el almirante estadounidense Husband E. Kimmel mostró un sesgo de confirmación ante los primeros signos del ataque a Pearl Harbor.[58] [95]

Un estudio de dos décadas de expertos en política realizado por Philip E. Tetlock constató que, en conjunto, sus predicciones no eran mucho mejores que las aleatorias. Tetlock dividió a los expertos en dos grupos: «zorros» que mantenían múltiples hipótesis y «erizos» que eran más dogmáticos. En general, los erizos eran mucho menos precisos. Tetlock culpó esos errores específicamente al sesgo de confirmación, a su incapacidad para utilizar nueva información que contradijera sus teorías existentes.[96]

En lo paranormal[editar]

Un factor de éxito en las «lecturas en frío» de un vidente es que los oyentes aplican un sesgo de confirmación que hace encajar las declaraciones del mismo en sus propias vidas.[97] Mediante la realización de un gran número de declaraciones ambiguas en cada sesión, el vidente da al cliente más oportunidades de encontrar algo que encaje. Esta es una de las técnicas de la lectura en frío, con la que el vidente puede dar una lectura subjetivamente admirable sin ninguna información previa acerca del cliente.[97] El investigador James Randi comparó la transcripción de la lectura con lo que el cliente afirmó que el vidente había dicho y encontró que el cliente mostraba una memoria altamente selectiva de los «éxitos».[98]

Como «ilustración destacada» de un sesgo de confirmación en el mundo real, Nickerson menciona la piramidología numerológica: la práctica de buscar un significado a las proporciones de las pirámides egipcias.[99] Hay muchas formas diferentes de medirlas, por lo que resulta prácticamente inevitable que las personas que toman en consideración estos números de manera selectiva encuentren correspondencias superficialmente asombrosas, como por ejemplo con las dimensiones de la Tierra.[99]

En el procedimiento científico[editar]

Una característica distintiva del pensamiento científico es la búsqueda de la falsación así como la confirmación de las pruebas.[100] Sin embargo, en muchas ocasiones en la historia de la ciencia, los científicos se han resistido a los nuevos descubrimientos interpretándolos selectivamente o ignorando información desfavorable.[100] Investigaciones previas han mostrado que la evaluación de la calidad de los estudios científicos parece ser particularmente vulnerable al sesgo de confirmación. En varias ocasiones se ha descubierto que los científicos puntúan los estudios que relatan hallazgos que concuerdan con sus creencias previas de manera más favorable que aquellos estudios que no encajan con esas creencias.[64] [101] [102] Sin embargo, suponiendo que la cuestión de la investigación es relevante, el diseño experimental suficiente y que los datos se describen clara y exhaustivamente, los hallazgos tendrían que ser de importancia para al comunidad científica y no deberían ser percibidos con prejuicio, independientemente de si encajan en las predicciones teóricas actuales.[102] El sesgo de confirmación puede, pues, ser especialmente peligroso para las evaluaciones objetivas hacia resultados que se salgan del guion, puesto que los individuos sesgados pueden ver las pruebas contrarias como débiles en un principio y darles poca seriedad al revisar sus creencias.[101] Los innovadores científicos con frecuencia se topan con resistencia de la comunidad científica y las investigaciones que presenten resultados controvertidos con frecuencia reciben una revisiones por pares duras.[103] En el contexto de la investigación científica, el sesgo confirmatorio puede mantener teorías o programas de investigación ante pruebas inadecuadas o incluso contradictorias;[58] [104] el campo de la parapsicología se ha visto particularmente afectado.[105] El sesgo de confirmación de un experimentador puede potencialmente afectar a qué datos se notifican. Aquellos datos que entren en conflicto con las expectativas del experimentador pueden ser más fácilmente descartados por ser poco fidedignos. Para combatir esta tendencia, el entrenamiento científico enseña formas de prevenir el sesgo.[106] Por ejemplo, el diseño experimental de pruebas aleatoriamente controladas (unido a su revisión sistemática) pretende minimizar posibles fuentes de sesgo.[106] [107] El proceso social de revisión por pares se ha pensado para mitigar el efecto de los sesgos individuales de los científicos,[108] incluso a pesar de que este proceso de revisión en sí mismo puede ser susceptible de sesgo.[102] [109]

En la autopercepción[editar]

Lo psicólogos sociales han identificado dos tendencias en la forma en que las personas buscan o interpretan la información sobre sí mismos. La autocomprobación es el camino para reforzar la autopercepción existente y la automejora el camino para buscar una retroalimentación positiva. Ambas se sirven de sesgos de confirmación.[110] En experimentos en los que las personas reciben observaciones que entran en conflicto con su autopercepción, es menos probable que presten atención o que las recuerden que cuando se les dan observaciones de autocomprobación.[111] [112] [113] Reducen el impacto de tal información interpretándola como poco fidedigna.[111] [114] [115] Experimentos similares han demostrado una preferencia por la retroalimentación positiva y por las personas que la dan sobre las que dan una negativa.[110]

Véase también[editar]

Notas[editar]

  1. "Sesgo de asimilación" es otro término usado para una interpretación sesgada de las pruebas. (Risen y Gilovich, 2007, p. 113)
  2. Wason también usó el término «sesgo de verificación». (Poletiek, 2001, p. 73)

Referencias[editar]

  1. a b Plous, 1993, p. 233
  2. Darley, John M.; Gross, Paget H. (2000), «A hypothesis-confirming bias in labelling effects», en Stangor, Charles, Stereotypes and prejudice: essential readings, Psychology Press, p. 212, ISBN 978-0-86377-589-5, OCLC 42823720 
  3. Risen y Gilovich, 2007
  4. a b c Zweig, Jason (November 19, 2009), «How to ignore the yes-man in your head», Wall Street Journal (Dow Jones & Company), http://online.wsj.com/article/SB10001424052748703811604574533680037778184.html, consultado el 2010-06-13 
  5. Nickerson, 1998, pp. 177–178
  6. a b c d Kunda, 1999, pp. 112–115
  7. a b Baron, 2000, pp. 162–164
  8. Kida, 2006, pp. 162–165
  9. Devine, Patricia G.; Hirt, Edward R.; Gehrke, Elizabeth M. (1990), «Diagnostic and confirmation strategies in trait hypothesis testing», Journal of Personality and Social Psychology (American Psychological Association) 58 (6): 952–963, doi:10.1037/0022-3514.58.6.952, ISSN 1939-1315 
  10. Trope, Yaacov; Bassok, Miriam (1982), «Confirmatory and diagnosing strategies in social information gathering», Journal of Personality and Social Psychology (American Psychological Association) 43 (1): 22–34, doi:10.1037/0022-3514.43.1.22, ISSN 1939-1315 
  11. a b c Klayman, Joshua; Ha, Young-Won (1987), «Confirmation, disconfirmation and information in hypothesis testing», Psychological Review (American Psychological Association) 94 (2): 211–228, doi:10.1037/0033-295X.94.2.211, ISSN 0033-295X, http://www.stats.org.uk/statistical-inference/KlaymanHa1987.pdf, consultado el 2009-08-14 
  12. a b c Oswald y Grosjean, 2004, pp. 82–83
  13. Kunda, Ziva; Fong, G.T.; Sanitoso, R.; Reber, E. (1993), «Directional questions direct self-conceptions», Journal of Experimental Social Psychology (Society of Experimental Social Psychology) 29: 62–63, ISSN 0022-1031  via Fine, 2006, pp. 63–65
  14. a b Shafir, E. (1993), «Choosing versus rejecting: why some options are both better and worse than others», Memory and Cognition 21 (4): 546–556, PMID 8350746  via Fine, 2006, pp. 63–65
  15. Snyder, Mark; Swann, Jr., William B. (1978), «Hypothesis-testing processes in social interaction», Journal of Personality and Social Psychology (American Psychological Association) 36 (11): 1202–1212, doi:10.1037/0022-3514.36.11.1202  vía Poletiek, 2001, p. 131
  16. a b Kunda, 1999, pp. 117–118
  17. a b Mynatt, Clifford R.; Doherty, Michael E.; Tweney, Ryan D. (1978), «Consequences of confirmation and disconfirmation in a simulated research environment», Quarterly Journal of Experimental Psychology 30 (3): 395–406, doi:10.1080/00335557843000007 
  18. Kida, 2006, p. 157
  19. a b c d e f Lord, Charles G.; Ross, Lee; Lepper, Mark R. (1979), «Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence», Journal of Personality and Social Psychology (American Psychological Association) 37 (11): 2098–2109, doi:10.1037/0022-3514.37.11.2098, ISSN 0022-3514 
  20. a b Baron, 2000, pp. 201–202
  21. Vyse, 1997, p. 122
  22. a b c d Taber, Charles S.; Lodge, Milton (July 2006), «Motivated skepticism in the evaluation of political beliefs», American Journal of Political Science (Midwest Political Science Association) 50 (3): 755–769, doi:10.1111/j.1540-5907.2006.00214.x, ISSN 0092-5853 
  23. a b Westen, Drew; Blagov, Pavel S.; Harenski, Keith; Kilts, Clint; Hamann, Stephan (2006), «Neural Bases of Motivated Reasoning: An fMRI Study of Emotional Constraints on Partisan Political Judgment in the 2004 U.S. Presidential Election», Journal of Cognitive Neuroscience (Massachusetts Institute of Technology) 18 (11): 1947–1958, doi:10.1162/jocn.2006.18.11.1947, PMID 17069484, http://psychsystems.net/lab/06_Westen_fmri.pdf, consultado el 2009-08-14 
  24. Gadenne, V.; Oswald, M. (1986), «Entstehung und Veränderung von Bestätigungstendenzen beim Testen von Hypothesen» (‘formación y alteración de las tendencias confirmatorias durante la comprobación de hipótesis’)», Zeitschrift für experimentelle und angewandte Psychologie 33: 360–374  vía Oswald y Grosjean, 2004, p. 89
  25. Hastie, Reid; Park, Bernadette (2005), «The relationship between memory and judgment depends on whether the judgment task is memory-based or on-line», en Hamilton, David L., Social cognition: key readings, New York: Psychology Press, p. 394, ISBN 0-86377-591-8, OCLC 55078722 
  26. a b c Oswald y Grosjean, 2004, pp. 88–89
  27. Stangor, Charles; McMillan, David (1992), «Memory for expectancy-congruent and expectancy-incongruent information: A review of the social and social developmental literatures», Psychological Bulletin (American Psychological Association) 111 (1): 42–61, doi:10.1037/0033-2909.111.1.42 
  28. a b Snyder, M.; Cantor, N. (1979), «Testing hypotheses about other people: the use of historical knowledge», Journal of Experimental Social Psychology 15 (4): 330–342, doi:10.1016/0022-1031(79)90042-8  vía Goldacre, 2008, p. 231
  29. Kunda, 1999, pp. 225–232
  30. Sanitioso, Rasyid; Kunda, Ziva; Fong, G.T. (1990), «Motivated recruitment of autobiographical memories», Journal of Personality and Social Psychology (American Psychological Association) 59 (2): 229–241, doi:10.1037/0022-3514.59.2.229, ISSN 0022-3514, PMID 2213492 
  31. a b Russell, Dan; Jones, Warren H. (1980), «When superstition fails: reactions to disconfirmation of paranormal beliefs», Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) 6 (1): 83–88, doi:10.1177/014616728061012, ISSN 1552-7433  via Vyse, 1997, p. 121
  32. a b c Kuhn, Deanna; Lao, Joseph (March 1996), «Effects of evidence on attitudes: is polarization the norm?», Psychological Science (American Psychological Society) 7 (2): 115–120, doi:10.1111/j.1467-9280.1996.tb00340.x 
  33. Baron, 2000, p. 201
  34. Miller, A.G.; McHoskey, J.W.; Bane, C.M.; Dowd, T.G. (1993), «The attitude polarization phenomenon: Role of response measure, attitude extremity, and behavioral consequences of reported attitude change», Journal of Personality and Social Psychology 64 (4): 561–574, doi:10.1037/0022-3514.64.4.561 
  35. a b c d Ross, Lee; Anderson, Craig A. (1982), «Shortcomings in the attribution process: On the origins and maintenance of erroneous social assessments», en Kahneman, Daniel; Slovic, Paul; Tversky, Amos, Judgment under uncertainty: Heuristics and biases, Cambridge University Press, pp. 129–152, ISBN 978-0-521-28414-1, OCLC 7578020 
  36. a b c d Nickerson, 1998, p. 187
  37. Kunda, 1999, p. 99
  38. Ross, Lee; Lepper, Mark R.; Hubbard, Michael (1975), «Perseverance in self-perception and social perception: Biased attributional processes in the debriefing paradigm», Journal of Personality and Social Psychology (American Psychological Association) 32 (5): 880–892, doi:10.1037/0022-3514.32.5.880, ISSN 0022-3514, PMID 1185517  vía Kunda, 1999, p. 99
  39. a b c Anderson, Craig A.; Lepper, Mark R.; Ross, Lee (1980), «Perseverance of social theories: the role of explanation in the persistence of discredited information», Journal of Personality and Social Psychology (American Psychological Association) 39 (6): 1037–1049, doi:10.1037/h0077720, ISSN 0022-3514 
  40. a b c d e Baron, 2000, pp. 197–200
  41. a b c Fine, 2006, pp. 66–70
  42. a b Plous, 1993, pp. 164–166
  43. Redelmeir, D. A.; Tversky, Amos (1996), «On the belief that arthritis pain is related to the weather», Proceedings of the National Academy of Sciences 93 (7): 2895–2896, doi:10.1073/pnas.93.7.2895  vía Kunda, 1999, p. 127
  44. a b c Kunda, 1999, pp. 127–130
  45. Plous, 1993, pp. 162–164
  46. Adaptado de Fielder, Klaus (2004), «Illusory correlation», en Pohl, Rüdiger F., Cognitive illusions: a handbook on fallacies and biases in thinking, judgement and memory, Hove, UK: Psychology Press, p. 103, ISBN 978-1-84169-351-4, OCLC 55124398 
  47. a b Baron, 2000, pp. 195–196
  48. Tucídides, Historia de la Guerra del Peloponeso, 4.108.4.
  49. Alighieri, Dante: Paradiso, canto XIII: 118–120. Traducido por Allen Mandelbaum.
  50. a b Francis Bacon (1620): Novum órganum. reprinted in Burtt, E.A., ed. (1939), The English philosophers from Bacon to Mill, New York: Random House, p. 36  vía Nickerson, 1998, p. 176
  51. Tolstói, León. What is Art? p. 124 (1899).
  52. Gale, Maggie; Ball, Linden J. (2002), «Does Positivity Bias Explain Patterns of Performance on Wason's 2-4-6 task?», en Gray, Wayne D.; Schunn, Christian D., Proceedings of the Twenty-Fourth Annual Conference of the Cognitive Science Society, Routledge, p. 340, ISBN 978-0-8058-4581-5, OCLC 469971634 
  53. a b Wason, Peter C. (1960), «On the failure to eliminate hypotheses in a conceptual task», Quarterly Journal of Experimental Psychology (Psychology Press) 12 (3): 129–140, doi:10.1080/17470216008416717, ISSN 1747-0226 
  54. Nickerson, 1998, p. 179
  55. Lewicka, 1998
  56. Oswald y Grosjean, 2004, pp. 79–96
  57. Wason, Peter C. (1968), «Reasoning about a rule», Quarterly Journal of Experimental Psychology (Psychology Press) 20 (3): 273–28, doi:10.1080/14640746808400161, ISSN 1747-0226 
  58. a b c Sutherland, Stuart (2007), Irrationality (2.ª edición), London: Pinter and Martin, pp. 95–103, ISBN 978-1-905177-07-3, OCLC 72151566 
  59. Barkow, Jerome H.; Cosmides, Leda; Tooby, John (1995), The adapted mind: evolutionary psychology and the generation of culture, Oxford University Press US, pp. 181–184, ISBN 978-0-19-510107-2, OCLC 33832963 
  60. Oswald y Grosjean, 2004, pp. 81–82, 86–87
  61. Lewicka, 1998
  62. Tweney, Ryan D.; Doherty, Michael E.; Worner, Winifred J.; Pliske, Daniel B.; Mynatt, Clifford R.; Gross, Kimberly A.; Arkkelin, Daniel L. (1980), «Strategies of rule discovery in an inference task», The Quarterly Journal of Experimental Psychology (Psychology Press) 32 (1): 109–123, doi:10.1080/00335558008248237, ISSN 1747-0226  (Experiment IV)
  63. Oswald y Grosjean, 2004, pp. 86–89
  64. a b Hergovich, Schott y Burger, 2010
  65. Maccoun, 1998
  66. Friedrich, 1993, p. 298
  67. Kunda, 1999, p. 94
  68. Nickerson, 1998, pp. 198–199
  69. Nickerson, 1998, p. 200
  70. a b c Nickerson, 1998, p. 197
  71. Baron, 2000, p. 206
  72. Matlin, Margaret W. (2004), «Pollyanna Principle», en Pohl, Rüdiger F., Cognitive illusions: a handbook on fallacies and biases in thinking, judgement and memory, Hove: Psychology Press, pp. 255–272, ISBN 978-1-84169-351-4, OCLC 55124398 
  73. Dawson, Erica; Gilovich, Thomas; Regan, Dennis T. (October 2002), «Motivated reasoning and performance on the Wason selection task», Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) 28 (10): 1379–1387, doi:10.1177/014616702236869, http://comp9.psych.cornell.edu/sec/pubPeople/tdg1/Dawson.Gilo.Regan.pdf, consultado el 2009-09-30 
  74. Ditto, Peter H.; Lopez, David F. (1992), «Motivated skepticism: use of differential decision criteria for preferred and nonpreferred conclusions», Journal of personality and social psychology (American Psychological Association) 63 (4): 568–584, doi:10.1037/0022-3514.63.4.568, ISSN 0022-3514 
  75. Nickerson, 1998, p. 198
  76. Oswald y Grosjean, 2004, pp. 91–93
  77. Friedrich, 1993, pp. 299, 316–317
  78. Trope, Y.; Liberman, A. (1996), «Social hypothesis testing: cognitive and motivational mechanisms», en Higgins, E. Tory; Kruglanski, Arie W., Social Psychology: Handbook of basic principles, New York: Guilford Press, ISBN 978-1-57230-100-9, OCLC 34731629  vía Oswald y Grosjean, 2004, pp. 91–93
  79. a b Dardenne, Benoit; Leyens, Jacques-Philippe (1995), «Confirmation bias as a social skill», Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) 21 (11): 1229–1239, doi:10.1177/01461672952111011, ISSN 1552-7433 
  80. Pompian, Michael M. (2006), Behavioral finance and wealth management: how to build optimal portfolios that account for investor biases, John Wiley and Sons, pp. 187–190, ISBN 978-0-471-74517-4, OCLC 61864118 
  81. Hilton, Denis J. (2001), «The psychology of financial decision-making: Applications to trading, dealing, and investment analysis», Journal of Behavioral Finance (Institute of Behavioral Finance) 2 (1): 37–39, doi:10.1207/S15327760JPFM0201_4, ISSN 1542-7579 
  82. Krueger, David; Mann, John David (2009), The secret language of money: how to make smarter financial decisions and live a richer life, McGraw Hill Professional, pp. 112–113, ISBN 978-0-07-162339-1, OCLC 277205993 
  83. a b Nickerson, 1998, p. 192
  84. Goldacre, 2008, p. 233
  85. Singh, Simon; Ernst, Edzard (2008), Trick or Treatment?: Alternative Medicine on Trial, London: Bantam, pp. 287–288, ISBN 978-0-593-06129-9 
  86. Atwood, Kimball (2004), «Naturopathy, pseudoscience, and medicine: myths and fallacies vs truth», Medscape General Medicine 6 (1): 33 
  87. Neenan, Michael; Dryden, Windy (2004), Cognitive therapy: 100 key points and techniques, Psychology Press, p. ix, ISBN 978-1-58391-858-6, OCLC 474568621 
  88. Blackburn, Ivy-Marie; Davidson, Kate M. (1995), Cognitive therapy for depression & anxiety: a practitioner's guide (2 edición), Wiley-Blackwell, p. 19, ISBN 978-0-632-03986-9, OCLC 32699443 
  89. Harvey, Allison G.; Watkins, Edward; Mansell, Warren (2004), Cognitive behavioural processes across psychological disorders: a transdiagnostic approach to research and treatment, Oxford University Press, pp. 172–173, 176, ISBN 978-0-19-852888-3, OCLC 602015097 
  90. Nickerson, 1998, pp. 191–193
  91. Myers, D.G.; Lamm, H. (1976), «The group polarization phenomenon», Psychological Bulletin 83 (4): 602–627, doi:10.1037/0033-2909.83.4.602  via Nickerson, 1998, pp. 193–194
  92. Halpern, Diane F. (1987), Critical thinking across the curriculum: a brief edition of thought and knowledge, Lawrence Erlbaum Associates, p. 194, ISBN 978-0-8058-2731-6, OCLC 37180929 
  93. Roach, Kent (2010), «Wrongful Convictions: Adversarial and Inquisitorial Themes», North Carolina Journal of International Law and Commercial Regulation 35, «Both adversarial and inquisitorial systems seem subject to the dangers of tunnel vision or confirmation bias.» 
  94. Baron, 2000, pp. 191,195
  95. Kida, 2006, p. 155
  96. Tetlock, Philip E. (2005), Expert Political Judgment: How Good Is It? How Can We Know?, Princeton, N.J.: Princeton University Press, pp. 125–128, ISBN 978-0-691-12302-8, OCLC 56825108 
  97. a b Smith, Jonathan C. (2009), Pseudoscience and extraordinary claims of the paranormal: a critical thinker's toolkit, John Wiley and Sons, pp. 149–151, ISBN 978-1-4051-8122-8, OCLC 319499491 
  98. Randi, James (1991), James Randi: psychic investigator, Boxtree, pp. 58–62, ISBN 978-1-85283-144-8, OCLC 26359284 
  99. a b Nickerson, 1998, p. 190
  100. a b Nickerson, 1998, pp. 192–194
  101. a b Koehler, 1993
  102. a b c Mahoney, 1977
  103. Horrobin, 1990
  104. Proctor, Robert W.; Capaldi, E. John (2006), Why science matters: understanding the methods of psychological research, Wiley-Blackwell, p. 68, ISBN 978-1-4051-3049-3, OCLC 318365881 
  105. Sternberg, Robert J. (2007), «Critical thinking in psychology: it really is critical», en Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F., Critical thinking in psychology, Cambridge University Press, p. 292, ISBN 0-521-60834-1, OCLC 69423179, «Some of the worst examples of confirmation bias are in research on parapsychology ... Arguably, there is a whole field here with no powerful confirming data at all. But people want to believe, and so they find ways to believe.» 
  106. a b Shadish, William R. (2007), «Critical thinking in quasi-experimentation», en Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F., Critical Thinking in Psychology, Cambridge University Press, p. 49, ISBN 978-0-521-60834-3 
  107. Jüni, P.; Altman, D. G.; Egger, M. (2001). «Systematic reviews in health care: Assessing the quality of controlled clinical trials». BMJ (Clinical research ed.). 323 (7303):  pp. 42–46. PMID 11440947. 
  108. Shermer, Michael (July 2006), «The Political Brain», Scientific American, ISSN 0036-8733, http://www.scientificamerican.com/article.cfm?id=the-political-brain, consultado el 2009-08-14 
  109. Emerson, G. B.; Warme, W. J.; Wolf, F. M.; Heckman, J. D.; Brand, R. A.; Leopold, S. S. (2010). «Testing for the Presence of Positive-Outcome Bias in Peer Review: A Randomized Controlled Trial». Archives of Internal Medicine 170 (21):  pp. 1934–1939. doi:10.1001/archinternmed.2010.406. PMID 21098355. 
  110. a b Swann, William B.; Pelham, Brett W.; Krull, Douglas S. (1989), «Agreeable fancy or disagreeable truth? Reconciling self-enhancement and self-verification», Journal of Personality and Social Psychology (American Psychological Association) 57 (5): 782–791, doi:10.1037/0022-3514.57.5.782, ISSN 0022–3514, PMID 2810025 
  111. a b Swann, William B.; Read, Stephen J. (1981), «Self-verification processes: How we sustain our self-conceptions», Journal of Experimental Social Psychology (Academic Press) 17 (4): 351–372, doi:10.1016/0022-1031(81)90043-3, ISSN 0022–1031 
  112. Story, Amber L. (1998), «Self-esteem and memory for favorable and unfavorable personality feedback», Personality and Social Psychology Bulletin (Society for Personality and Social Psychology) 24 (1): 51–64, doi:10.1177/0146167298241004, ISSN 1552-7433 
  113. White, Michael J.; Brockett, Daniel R.; Overstreet, Belinda G. (1993), «Confirmatory bias in evaluating personality test information: am I really that kind of person?», Journal of Counseling Psychology (American Psychological Association) 40 (1): 120–126, doi:10.1037/0022-0167.40.1.120, ISSN 0022-0167 
  114. Swann, William B.; Read, Stephen J. (1981), «Acquiring self-knowledge: the search for feedback that fits», Journal of Personality and Social Psychology (American Psychological Association) 41 (6): 1119–1128, ISSN 0022–3514 
  115. Shrauger, J. Sidney; Lund, Adrian K. (1975), «Self-evaluation and reactions to evaluations from others», Journal of Personality (Duke University Press) 43 (1): 94–108, doi:10.1111/j.1467-6494.1975.tb00574, PMID 1142062 

Bibliografía[editar]

Enlaces externos[editar]