Diferencia entre revisiones de «Falacia de la frecuencia base»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Creado al traducir la página «Base_rate_fallacy»
Línea 1: Línea 1:
<span>La </span>'''Falacia de frecuencia base''', llamada también '''negligencia de frecuencia''' o '''sesgo de frecuencia base''', es una falacia formal. Consiste en que si se le presenta a la mente información de la frecuencia de base (i.e. información genérica o general) e información específica (información de un caso particular), la mente tiende a ignorar la información general y enfocarse en la particular.<ref>{{Cita web|url=http://www.fallacyfiles.org/baserate.html|título=Logical Fallacy: The Base Rate Fallacy|fechaacceso=15 de junio de 2013|editorial=Fallacyfiles.org}}</ref>


La '''falacia de la frecuencia base''', también llamada '''negligencia de frecuencia''' o '''sesgo de la frecuencia base''', es una [[Falacia|falacia formal]] . Consiste en que si se le presenta a la mente información de frecuencia base (es decir, información general sobre la prevalencia) e información específica (es decir, información que pertenece solo a un caso específico), la mente tiende a ignorar la informacion general y enfocarse en la particular. <ref>{{Cita web|url=http://www.fallacyfiles.org/baserate.html|título=Logical Fallacy: The Base Rate Fallacy|fechaacceso=2013-06-15|editorial=Fallacyfiles.org}}</ref>
La negligencia de la frecuencia base es una forma concreta de la [[negligencia por extension]].

La negligencia de la frecuencia base es una forma específica de [[Negligencia por extensión|negligencia de extensión]].

== Paradoja falsa positiva ==
Un ejemplo de la falacia de la frecuencia base es la '''paradoja de''' los '''falsos positivos''' . Esta paradoja describe situaciones en las que hay más resultados [[Falso positivo y falso negativo|falsos positivos]] que verdaderos positivos. Por ejemplo, 50 de cada 1,000 personas dan positivo en una prueba de infección, pero solo 10 tienen la infección, lo que significa que 40 pruebas fueron falsos positivos. La probabilidad de un resultado positivo de la prueba está determinada no solo por la precisión de la prueba, sino también por las características de la población muestreada. <ref>{{Cita libro|título=Probability and Statistics in Aerospace Engineering|nombre=M. H.|apellidos=Rheinfurth|nombre2=L. W.|apellidos2=Howell|fecha=March 1998|editorial=[[NASA]]|url=https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/19980045313_1998119122.pdf|página=16|cita=MESSAGE: False positive tests are more probable than true positive tests when the overall population has a low prevalence of the disease. This is called the false-positive paradox.}}</ref> Cuando la prevalencia, la proporción de aquellos que tienen una condición determinada, es menor que la tasa de [[Falso positivo y falso negativo|falsos positivos]] de la prueba, incluso las pruebas que tienen una probabilidad muy baja de dar un falso positivo ''en un caso individual'' darán más falsos positivos que verdaderos positivos en ''general'' . <ref name="Vacher">{{Cita publicación|url=http://findarticles.com/p/articles/mi_qa4089/is_200305/ai_n9252796/pg_2/|título=Quantitative literacy - drug testing, cancer screening, and the identification of igneous rocks|apellidos=Vacher|nombre=H. L.|fecha=May 2003|publicación=Journal of Geoscience Education|página=2|cita=At first glance, this seems perverse: the less the students as a whole use [[steroids]], the more likely a student identified as a user will be a non-user. This has been called the False Positive Paradox}} - Citing: {{Cita libro|apellidos=Gonick|nombre=L.|apellidos2=Smith|nombre2=W.|año=1993|título=The cartoon guide to statistics|editorial=Harper Collins|ubicación=New York|página=49}}</ref> La paradoja sorprende a la mayoría de la gente. <ref>{{Cita libro|título=Assessing Mathematical Proficiency|nombre-editor=A. H.|editor=Schoenfeld|nombre=B. L.|apellidos=Madison|fecha=August 2007|editorial=Cambridge University Press|serie=Mathematical Sciences Research Institute Publications|capítulo=Mathematical Proficiency for Citizenship|chapter-url=https://books.google.com/books?id=5gQz0akjYcwC&pg=113|isbn=978-0-521-69766-8|edición=New|página=122|cita=The correct [probability estimate...] is surprising to many; hence, [[wiktionary:paradox|the term paradox]].}}</ref>

Esta paradoja es especialmente contraria a la intuición cuando se interpreta un resultado positivo en una prueba en una [[Población estadística|población de]] baja prevalencia después de haber tratado con resultados positivos extraídos de una población de alta prevalencia. <ref name="Vacher">{{Cita publicación|url=http://findarticles.com/p/articles/mi_qa4089/is_200305/ai_n9252796/pg_2/|título=Quantitative literacy - drug testing, cancer screening, and the identification of igneous rocks|apellidos=Vacher|nombre=H. L.|fecha=May 2003|publicación=Journal of Geoscience Education|página=2|cita=At first glance, this seems perverse: the less the students as a whole use [[steroids]], the more likely a student identified as a user will be a non-user. This has been called the False Positive Paradox}} - Citing: {{Cita libro|apellidos=Gonick|nombre=L.|apellidos2=Smith|nombre2=W.|año=1993|título=The cartoon guide to statistics|editorial=Harper Collins|ubicación=New York|página=49}}</ref> Si la tasa de [[Falso positivo y falso negativo|falsos positivos]] de la prueba es mayor que la proporción de la ''nueva'' población con la afección, entonces un administrador de la prueba cuya experiencia se haya extraído de la prueba en una población de alta prevalencia puede [[Rule of thumb|concluir por experiencia]] que un resultado positivo de la prueba generalmente indica una sujeto positivo, cuando en realidad es mucho más probable que haya ocurrido un falso positivo.


== Ejemplos ==
== Ejemplos ==


=== Ejemplo 1 ===
=== Ejemplo 1: Enfermedad ===

: Un grupo de policías tiene [[Alcoholímetro|alcoholímetros]] que detectan la embriaguez incorrectamente en 5% de los casos en que el conductor está sobrio. Sin embargo, el alcoholímetro nunca falla en detectar una persona verdaderamente [[Borracha|ebria]]. Uno de cada mil conductores está conduciendo ebrio. Suponga que los policías detienen a un conductor al azar, y le hacen la prueba del alcoholímetro. El resultado de la prueba es que el conductor está ebrio. Asumiendo que no sabemos nada más del conductor, ¿cómo de probable es que esté realmente ebrio?
==== Población de alta incidencia ====
{| class="wikitable floatright" style="text-align:right;"
!Número<br /> de personas
! Infectado
! No infectado
! Total
|-
! Prueba<br /> positiva
| ''400''<br />(verdadero positivo)
| ''30''<br />(falso positivo)
| 430
|-
! Prueba<br />negativa
| 0<br />(falso negativo)
| 570<br />(verdadero negativo)
| 570
|-
! Total
| 400
| 600
! 1000
|}
Imagine realizar una prueba de enfermedades infecciosas en una población ''A'' de 1000 personas, en la que el 40% está infectado. La prueba tiene una tasa de falsos positivos del 5% (0.05) y ninguna tasa de falsos negativos. El [[Esperanza matemática|resultado esperado]] de las 1000 pruebas en la población ''A'' sería:

: Infectado y la prueba indica enfermedad ( [[Falso positivo y falso negativo|verdadero positivo]] )
:: 1000 ×  (40 / 100) = 400 personas recibirían un verdadero positivo
: No infectado y la prueba indica enfermedad (falso positivo)
:: 1000 × ( (100 - 40 ) / 100 )× 0.05 = 30 personas recibirían un falso positivo
: Las 570 pruebas restantes son correctamente negativas.

Entonces, en la población ''A'', una persona que recibe una prueba positiva podría tener más del 93% de confianza (  que indica correctamente la infección.

==== Población de baja incidencia ====
{| class="wikitable floatright" style="text-align:right;"
!Número<br />de personas
! Infectado
! No infectado
! Total
|-
! Prueba<br />positiva
| ''20''<br />(verdadero positivo)
| ''49''<br />(falso positivo)
| 69
|-
! Prueba<br />negativa
| 0<br />(falso negativo)
| 931<br />(verdadero negativo)
| 931
|-
! Total
| 20
| 980
! 1000
|}
Ahora considere la misma prueba aplicada a la población ''B'', en la que solo el 2% está infectado. El resultado [[Esperanza matemática|esperado]] de 1000 pruebas en la población ''B'' sería:

: Infectado y la prueba indica enfermedad ( [[Falso positivo y falso negativo|verdadero positivo]] )
:: 1000 × (2/100) = 20 personas recibirían un verdadero positivo
: No infectado y la prueba indica enfermedad (falso positivo)
:: 1000 ×((100-2)/100)× 0.05 = 49 personas recibirían un falso positivo
: Las 931 (= 1000 - (49 + 20)) pruebas restantes son correctamente negativas.

En la población ''B'', solo 20 del total de 69 personas con un resultado positivo en la prueba están realmente infectadas. Entonces, la probabilidad de estar realmente infectado después de que se le dice a uno que está infectado es solo del 29% (  para una prueba de que de otro modo parece ser "95% exacta".

Un evaluador con experiencia en el grupo ''A'' podría encontrar una paradoja que en el grupo ''B'', un resultado que normalmente había indicado correctamente una infección ahora sea un [[Falso positivo y falso negativo|falso positivo]] . La confusión de la [[Probabilidad a posteriori|probabilidad posterior]] de infección con la [[Probabilidad a priori|probabilidad previa]] de recibir un falso positivo es un [[Falacia|error]] natural después de recibir un resultado de prueba que amenaza la salud.

=== Ejemplo 2: conductores ebrios ===

: Un grupo de policías tiene [[Alcoholímetro|alcoholímetros que]] muestran falsa embriaguez en el 5% de los casos en los que el conductor está sobrio. Sin embargo, los alcoholímetros nunca dejan de detectar a una persona verdaderamente borracha. Uno de cada mil conductores conduce ebrio. Supongamos que los agentes de policía detienen a un conductor al azar para administrarle una prueba de alcoholemia. Indica que el conductor está ebrio. Suponemos que no sabe nada más sobre ellos. ¿Qué tan alta es la probabilidad de que realmente estén ebrios?

Muchos responderían hasta un 95%, pero la probabilidad correcta es de alrededor del 2%.

Una explicación para esto es la siguiente: en promedio, por cada 1,000 conductores probados,

* 1 conductor está ebrio y es 100% seguro que para ese conductor hay un resultado de prueba positivo ''verdadero'', por lo que hay 1 resultado de prueba positivo ''verdadero''
* 999 conductores no están ebrios, y entre esos conductores hay un 5% de resultados ''falsos'' positivos, por lo que hay 49,95 resultados ''falsos'' positivos.

Por lo tanto, la probabilidad de que uno de los conductores entre los 1 + 49.95 = 50.95 resultados positivos de la prueba realmente esté ebrio es <math>1/50.95 \approx 0.019627</math> .

La validez de este resultado, sin embargo, depende de la validez de la suposición inicial de que el oficial de policía detuvo al conductor realmente al azar, y no debido a una mala conducción. Si existiera esa u otra razón no arbitraria para detener al conductor, entonces el cálculo también involucra la probabilidad de que un conductor ebrio conduzca de manera competente y un conductor no ebrio conduzca (de manera no) competente.

Más formalmente, se puede establecer la misma probabilidad de aproximadamente 0.02 usando [[Teorema de Bayes|el teorema de Bayes]] . El objetivo es encontrar la probabilidad de que el conductor esté ebrio dado que el alcoholímetro indicó que está ebrio, lo que se puede representar como

: <math>p(\mathrm{drunk}\mid D)</math>

donde ''D'' significa que el alcoholímetro indica que el conductor está ebrio. El teorema de Bayes nos dice que

: <math>p(\mathrm{drunk}\mid D) = \frac{p(D \mid \mathrm{drunk})\, p(\mathrm{drunk})}{p(D)}.</math>

Se nos dijo lo siguiente en el primer párrafo:

: <math>p(\mathrm{drunk}) = 0.001,</math>
: <math>p(\mathrm{sober}) = 0.999,</math>
: <math>p(D\mid\mathrm{drunk}) = 1.00,</math> y
: <math>p(D\mid\mathrm{sober}) = 0.05.</math>

Como puede ver en la fórmula, se necesita ''p'' ( ''D'' ) para el teorema de Bayes, que se puede calcular a partir de los valores anteriores usando la [[Teorema de la probabilidad total|ley de probabilidad total]] :

: <math>p(D) = p(D \mid \mathrm{drunk})\,p(\mathrm{drunk})+p(D\mid\mathrm{sober})\,p(\mathrm{sober})</math>

: <math>p(D)= (1.00 \times 0.001) + (0.05 \times 0.999) = 0.05095.</math>

Conectando estos números al teorema de Bayes, uno encuentra que

: <math>p(\mathrm{drunk}\mid D) = \frac{1.00 \times 0.001}{0.05095} = 0.019627.</math>

=== Ejemplo 3: identificación de terroristas ===
En una ciudad de 1 millón de habitantes en la que haya 100 terroristas y 999,900 no terroristas. Para simplificar el ejemplo, se asume que todas las personas presentes en la ciudad son habitantes. Por lo tanto, la probabilidad de frecuencia base de que un habitante de la ciudad seleccionado al azar sea un terrorista es 0,0001, y la probabilidad de frecuencia base de que ese mismo habitante sea un no terrorista es 0,9999. En un intento por atrapar a los terroristas, la ciudad instala un sistema de alarma con una cámara de vigilancia y un [[Sistema de reconocimiento facial|software de reconocimiento facial]] automático.

El software tiene dos tasas de falla del 1%:

* La tasa de falsos negativos: si la cámara escanea a un terrorista, una campana sonará el 99% del tiempo y no sonará el 1% del tiempo.
* La tasa de falsos positivos: si la cámara escanea a un no terrorista, una campana no sonará el 99% del tiempo, pero sonará el 1% del tiempo.

Supongamos ahora que un habitante dispara la alarma. ¿Cuál es la probabilidad de que la persona sea un terrorista? En otras palabras, ¿cuál es P (T | B), la probabilidad de que se haya detectado a un terrorista dado el toque de la campana? Alguien que cometa la 'falacia de la frecuencia base' inferiría que existe un 99% de posibilidades de que la persona detectada sea un terrorista. Aunque la inferencia parece tener sentido, en realidad es un mal razonamiento, y un cálculo a continuación mostrará que las posibilidades de que sea un terrorista en realidad están cerca del 1%, no cerca del 99%.

La falacia surge de confundir la naturaleza de dos tasas de falla diferentes. El 'número de no-campanadas por cada 100 terroristas' y el 'número de no-terroristas por cada 100 campanas' son cantidades no relacionadas. Uno no es necesariamente igual al otro, y ni siquiera tienen que ser casi iguales. Para mostrar esto, considere lo que sucede si se instala un sistema de alarma idéntico en una segunda ciudad sin terroristas en absoluto. Como en la primera ciudad, la alarma suena para 1 de cada 100 habitantes no terroristas detectados, pero a diferencia de la primera ciudad, la alarma nunca suena para un terrorista. Por lo tanto, el 100% de todas las ocasiones en que suena la alarma son para no terroristas, pero ni siquiera se puede calcular una tasa de falsos negativos. El 'número de no terroristas por cada 100 campanas' en esa ciudad es 100, pero P (T | B) = 0%. Hay cero posibilidades de que se haya detectado a un terrorista dado el toque de la campana.

Imagine que la población total de la primera ciudad de un millón de personas pasa frente a la cámara. Aproximadamente 99 de los 100 terroristas activarán la alarma, y también lo harán unos 9,999 de los 999,900 no terroristas. Por tanto, unas 10.098 personas dispararán la alarma, entre las que unas 99 serán terroristas. Entonces, la probabilidad de que una persona que active la alarma sea realmente un terrorista, es de solo 99 en 10,098, que es menos del 1% y muy, muy por debajo de nuestra estimación inicial del 99%.

La falacia de la frecuencia base es tan engañosa en este ejemplo porque hay muchos más no terroristas que terroristas, y el número de falsos positivos (no terroristas escaneados como terroristas) es mucho mayor que los verdaderos positivos (el número real de terroristas) .

== Hallazgos en psicología ==
En experimentos, se ha descubierto que la gente prefiere individualizar la información sobre la información general cuando la primera está disponible. <ref>{{Cita publicación|url=http://ratio.huji.ac.il/sites/default/files/publications/dp732.pdf|título=The base-rate fallacy in probability judgments|apellidos=Bar-Hillel|nombre=Maya|enlaceautor=Maya Bar-Hillel|publicación=Acta Psychologica|volumen=44|número=3|páginas=211–233|doi=10.1016/0001-6918(80)90046-3|año=1980}}</ref> <ref name="kv1">{{Cita publicación|título=On the psychology of prediction|apellidos=Kahneman|nombre=Daniel|apellidos2=Amos Tversky|publicación=Psychological Review|volumen=80|número=4|páginas=237–251|doi=10.1037/h0034747|año=1973}}</ref> <ref>{{Cita libro|apellidos=Kahneman|nombre=Daniel|título=Judgment under uncertainty: Heuristics and biases|año=1985|páginas=153–160|apellidos2=Amos Tversky|editor=Daniel Kahneman, Paul Slovic & Amos Tversky|capítulo=Evidential impact of base rates|volumen=185|doi=10.1126/science.185.4157.1124}}</ref>

En algunos experimentos, se pidió a los estudiantes que estimaran los [[Calificación escolar|promedios de calificaciones]] (GPA) de estudiantes hipotéticos. Cuando se les dan estadísticas relevantes sobre la distribución del GPA, los estudiantes tienden a ignorarlas si se les da información descriptiva sobre el estudiante en particular, incluso si la nueva información descriptiva era obviamente de poca o ninguna relevancia para el desempeño escolar. <ref name="kv1">{{Cita publicación|título=On the psychology of prediction|apellidos=Kahneman|nombre=Daniel|apellidos2=Amos Tversky|publicación=Psychological Review|volumen=80|número=4|páginas=237–251|doi=10.1037/h0034747|año=1973}}</ref> Este hallazgo se ha utilizado para argumentar que las entrevistas son una parte innecesaria del proceso de admisión a la universidad porque los entrevistadores no pueden elegir candidatos exitosos mejor que las estadísticas básicas.

[[Psicólogo|Los psicólogos]] [[Daniel Kahneman]] y [[Amos Tversky]] intentaron explicar este hallazgo en términos de una [[Heurística del juicio|regla simple o "heurística"]] llamada [[Heurística de la representatividad|representatividad]] . Argumentaron que muchos juicios relacionados con la probabilidad, o con la causa y efecto, se basan en cuán representativa es una cosa de otra o de una categoría. <ref name="kv1">{{Cita publicación|título=On the psychology of prediction|apellidos=Kahneman|nombre=Daniel|apellidos2=Amos Tversky|publicación=Psychological Review|volumen=80|número=4|páginas=237–251|doi=10.1037/h0034747|año=1973}}</ref> Kahneman considera que el abandono de la frecuencia base es una forma específica de [[Negligencia por extensión|abandono]] de la [[Negligencia por extensión|extensión]] . <ref>{{Cita libro|apellidos=Kahneman|nombre=Daniel|título=Choices, Values and Frames|año=2000|editor=Daniel Kahneman and Amos Tversky|capítulo=Evaluation by moments, past and future}}</ref> Richard Nisbett ha argumentado que algunos sesgos de atribución, como el [[Sesgo de correspondencia|error de fundamental de atribución,]] son ejemplos de la falacia de la frecuencia base: la gente no usa la "información de consenso" (la "frecuencia base") sobre cómo otros se comportaron en situaciones similares y prefieren atribuciones disposicionales más simples . <ref>{{Cita libro|apellidos=Nisbett|nombre=Richard E.|título=Cognition and social behavior|año=1976|apellidos2=E. Borgida|apellidos3=R. Crandall|apellidos4=H. Reed|editor=J. S. Carroll & J. W. Payne|capítulo=Popular induction: Information is not always informative|páginas=227–236|volumen=2}}</ref>

Existe un debate considerable en psicología sobre las condiciones bajo las cuales las personas aprecian o no la información de frecuencia base. <ref name="Koehler1996">{{Cita publicación|título=The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges|apellidos=Koehler|nombre=J. J.|publicación=Behavioral and Brain Sciences|volumen=19|páginas=1–17|doi=10.1017/S0140525X00041157|año=2010}}</ref> <ref name="BarbeySloman2007">{{Cita publicación|título=Base-rate respect: From ecological rationality to dual processes|apellidos=Barbey|nombre=A. K.|apellidos2=Sloman|nombre2=S. A.|publicación=Behavioral and Brain Sciences|volumen=30|número=3|páginas=241–254; discussion 255–297|doi=10.1017/S0140525X07001653|pmid=17963533|año=2007}}</ref> Los investigadores del programa de heurística y sesgos han enfatizado los hallazgos empíricos que muestran que las personas tienden a ignorar las tasas base y hacer inferencias que violan ciertas normas de razonamiento probabilístico, como [[Teorema de Bayes|el teorema de Bayes]] . La conclusión extraída de esta línea de investigación fue que el pensamiento probabilístico humano es fundamentalmente defectuoso y propenso a errores. <ref name="TverskyKahneman1974">{{Cita publicación|título=Judgment under Uncertainty: Heuristics and Biases|apellidos=Tversky|nombre=A.|apellidos2=Kahneman|nombre2=D.|publicación=Science|volumen=185|número=4157|páginas=1124–1131|bibcode=1974Sci...185.1124T|doi=10.1126/science.185.4157.1124|pmid=17835457|año=1974}}</ref> Otros investigadores han enfatizado el vínculo entre los procesos cognitivos y los formatos de información, argumentando que tales conclusiones generalmente no están justificadas. <ref>{{Cita publicación|título=Are humans good intuitive statisticians after all? Rethinking some conclusions of the literature on judgment under uncertainty|apellidos=Cosmides|nombre=Leda|apellidos2=John Tooby|publicación=Cognition|volumen=58|páginas=1–73|doi=10.1016/0010-0277(95)00664-8|año=1996}}</ref> <ref name="GigerenzerHoffrage1995">{{Cita publicación|título=How to improve Bayesian reasoning without instruction: Frequency formats|apellidos=Gigerenzer|nombre=G.|apellidos2=Hoffrage|nombre2=U.|publicación=Psychological Review|volumen=102|número=4|página=684|doi=10.1037/0033-295X.102.4.684|año=1995}}</ref>

Considere nuevamente el ejemplo 2 anterior. La inferencia requerida es estimar la probabilidad (posterior) de que un conductor (elegido al azar) esté ebrio, dado que la prueba del alcoholímetro es positiva. Formalmente, esta probabilidad se puede calcular utilizando [[Teorema de Bayes|el teorema de Bayes]], como se muestra arriba. Sin embargo, existen diferentes formas de presentar la información relevante. Considere la siguiente variante formalmente equivalente del problema:

: &nbsp;1 de cada 1000 conductores conduce ebrio. Los alcoholímetros nunca dejan de detectar a una persona verdaderamente borracha. Para 50 de los 999 conductores que no están ebrios, el alcoholímetro muestra falsamente la embriaguez. Supongamos que los policías detienen a un conductor al azar y lo obligan a tomar una prueba de alcoholemia. Indica que están ebrios. Suponemos que no sabe nada más sobre ellos. ¿Qué tan alta es la probabilidad de que realmente estén ebrios?

En este caso, la información numérica relevante — ''p'' (ebrio), ''p'' ( ''D'' | ebrio), ''p'' ( ''D'' | sobrio) - se presenta en términos de frecuencias naturales con respecto a una determinada clase de referencia (ver problema de clase de referencia ). Los estudios empíricos muestran que las inferencias de las personas se corresponden más estrechamente con la regla de Bayes cuando la información se presenta de esta manera, lo que ayuda a superar la negligencia de la frecuencia base en las personas comunes <ref name="GigerenzerHoffrage1995">{{Cita publicación|título=How to improve Bayesian reasoning without instruction: Frequency formats|apellidos=Gigerenzer|nombre=G.|apellidos2=Hoffrage|nombre2=U.|publicación=Psychological Review|volumen=102|número=4|página=684|doi=10.1037/0033-295X.102.4.684|año=1995}}</ref> y los expertos. <ref name="Hoffrage2000">{{Cita publicación|título=Medicine: Communicating Statistical Information|apellidos=Hoffrage|nombre=U.|apellidos2=Lindsey|nombre2=S.|publicación=Science|volumen=290|número=5500|páginas=2261–2262|doi=10.1126/science.290.5500.2261|pmid=11188724|apellidos3=Hertwig|nombre3=R.|apellidos4=Gigerenzer|nombre4=G.|año=2000}}</ref> Como consecuencia, organizaciones como la [[Colaboración Cochrane]] recomiendan usar este tipo de formato para comunicar estadísticas de salud. <ref name="Cochrane2011">{{Cita publicación|título=Using alternative statistical formats for presenting risks and risk reductions|apellidos=Akl|nombre=E. A.|apellidos2=Oxman|nombre2=A. D.|publicación=The Cochrane Database of Systematic Reviews|número=3|páginas=CD006776|apellidos-editor=Schünemann|nombre-editor=Holger|doi=10.1002/14651858.CD006776.pub2|pmc=6464912|pmid=21412897|apellidos3=Herrin|nombre3=J.|apellidos4=Vist|nombre4=G. E.|apellidos5=Terrenato|nombre5=I.|apellidos6=Sperati|nombre6=F.|apellidos7=Costiniuk|nombre7=C.|apellidos8=Blank|nombre8=D.|apellidos9=Schünemann|nombre9=H.|año=2011}}</ref> Enseñar a las personas a traducir este tipo de problemas de razonamiento bayesiano en formatos de frecuencia natural es más eficaz que simplemente enseñarles a introducir probabilidades (o porcentajes) en el teorema de Bayes. <ref name="SedlmeierGigerenzer2002">{{Cita publicación|url=http://edoc.mpg.de/175640|título=Teaching Bayesian reasoning in less than two hours|apellidos=Sedlmeier|nombre=P.|apellidos2=Gigerenzer|nombre2=G.|publicación=Journal of Experimental Psychology: General|volumen=130|número=3|página=380|doi=10.1037/0096-3445.130.3.380|año=2001}}</ref> También se ha demostrado que las representaciones gráficas de frecuencias naturales (por ejemplo, matrices de iconos) ayudan a las personas a hacer mejores inferencias. <ref name="Brase2008">{{Cita publicación|título=Pictorial representations in statistical reasoning|apellidos=Brase|nombre=G. L.|publicación=Applied Cognitive Psychology|volumen=23|número=3|páginas=369–381|doi=10.1002/acp.1460|año=2009}}</ref> <ref name="Edwards2002">{{Cita publicación|título=Explaining risks: Turning numerical data into meaningful pictures|apellidos=Edwards|nombre=A.|apellidos2=Elwyn|nombre2=G.|publicación=BMJ|volumen=324|número=7341|páginas=827–830|doi=10.1136/bmj.324.7341.827|pmc=1122766|pmid=11934777|apellidos3=Mulley|nombre3=A.|año=2002}}</ref>


¿Por qué son útiles los formatos de frecuencia natural? Una razón importante es que este formato de información facilita la inferencia requerida porque simplifica los cálculos necesarios. Esto se puede ver cuando se usa una forma alternativa de calcular la probabilidad requerida ''p'' (ebrio | ''D'' ):
Muchos contestarían que la probabilidad es del 0.95, pero la probabilidad correcta es aproximadamente 0.02.


: <math>p(\mathrm{drunk}\mid D) = \frac{N(\mathrm{drunk} \cap D)}{N(D)} = \frac{1}{51} = 0.0196</math>
Para encontrar la respuesta correcta, uno puede utilizar el [[teorema de Bayes]], o aplicar la siguiente técnica intuitiva:


donde ''N'' (ebrio &#x2229; ''D'' ) denota el número de conductores que están ebrios y obtienen un resultado positivo en el alcoholímetro, y ''N'' ( ''D'' ) indica el número total de casos con un resultado positivo en el alcoholímetro. La equivalencia de esta ecuación a la anterior se deriva de los axiomas de la teoría de la probabilidad, según los cuales ''N'' (ebrios &#x2229; ''D'' ) = ''N'' × ''p'' ( ''D'' | ebrio) × ''p'' (ebrio). Es importante destacar que, aunque esta ecuación es formalmente equivalente a la regla de Bayes, no es psicológicamente equivalente. El uso de frecuencias naturales simplifica la inferencia porque la operación matemática requerida se puede realizar en números naturales, en lugar de fracciones normalizadas (es decir, probabilidades), porque hace que la gran cantidad de falsos positivos sea más transparente y porque las frecuencias naturales exhiben una "estructura de conjunto anidado". <ref name="Girotto2001">{{Cita publicación|título=Solving probabilistic and statistical problems: A matter of information structure and question form|apellidos=Girotto|nombre=V.|apellidos2=Gonzalez|nombre2=M.|publicación=Cognition|volumen=78|número=3|páginas=247–276|doi=10.1016/S0010-0277(00)00133-5|pmid=11124351|año=2001}}</ref> <ref name="Hoffrage2002">{{Cita publicación|título=Representation facilitates reasoning: What natural frequencies are and what they are not|apellidos=Hoffrage|nombre=U.|apellidos2=Gigerenzer|nombre2=G.|publicación=Cognition|volumen=84|número=3|páginas=343–352|doi=10.1016/S0010-0277(02)00050-1|pmid=12044739|apellidos3=Krauss|nombre3=S.|apellidos4=Martignon|nombre4=L.|año=2002}}</ref>
En promedio, por cada 1,000 conductores probados,
* 1 conductor está ebrio, y es 100% seguro que para ese conductor el resultado positivo de la prueba es verdadero
* 999 conductores no están ebrios, y entre ellos el 5% recibe un resultado positivo falso, es decir hay 49.95 resultados positivos falsos
Por lo tanto, la probabilidad de que un conductor dé positivo en la prueba (1+49.95=50.95) y esté realmente ebrio es 1/50.95 = 0.019


No todos los formatos de frecuencia facilitan el razonamiento bayesiano. <ref name="Hoffrage2002">{{Cita publicación|título=Representation facilitates reasoning: What natural frequencies are and what they are not|apellidos=Hoffrage|nombre=U.|apellidos2=Gigerenzer|nombre2=G.|publicación=Cognition|volumen=84|número=3|páginas=343–352|doi=10.1016/S0010-0277(02)00050-1|pmid=12044739|apellidos3=Krauss|nombre3=S.|apellidos4=Martignon|nombre4=L.|año=2002}}</ref> <ref name="GigerenzerHoffrage1999">{{Cita publicación|url=http://edoc.mpg.de/2936|título=Overcoming difficulties in Bayesian reasoning: A reply to Lewis and Keren (1999) and Mellers and McGraw (1999)|apellidos=Gigerenzer|nombre=G.|apellidos2=Hoffrage|nombre2=U.|publicación=Psychological Review|volumen=106|número=2|páginas=425|doi=10.1037/0033-295X.106.2.425|año=1999}}</ref> Las frecuencias naturales se refieren a la información de frecuencia que resulta del ''muestreo natural'', <ref name="Kleiter1994">{{Cita libro|apellidos=Kleiter|nombre=G. D.|capítulo=Natural Sampling: Rationality without Base Rates|doi=10.1007/978-1-4612-4308-3_27|título=Contributions to Mathematical Psychology, Psychometrics, and Methodology|serie=Recent Research in Psychology|páginas=375–388|año=1994|isbn=978-0-387-94169-1}}</ref> que preserva la información de la frecuencia base (por ejemplo, el número de conductores ebrios cuando se toma una muestra aleatoria de conductores). Esto es diferente del ''muestreo sistemático'', en el que las tasas base se fijan a priori (por ejemplo, en experimentos científicos). En el último caso, no es posible inferir la probabilidad posterior ''p'' (ebrio | prueba positiva) al comparar el número de conductores que están ebrios y dan positivo en la prueba con el número total de personas que obtienen un resultado positivo en el alcoholímetro, porque la información de frecuencia base no se conserva y debe reintroducirse explícitamente utilizando el teorema de Bayes.
La validez de este resultado , sin embargo, deriva de la validez de la suposición inicial de que la policía realmente detuvo al conductor al azar, y no debido a que lo observó conduciendo erráticamente. Si esa (o alguna otra razón para detener al conductor está presente), entonces el cálculo también debe considerar la probabilidad de que un conductor ebrio conduzca competentemente y un conductor no ebrio conduzca erráticamente.


== Ve también ==
== Ver también ==
* [[Probabilidad bayesiana]]
* [[Paradoja del falso positivo|Paradoja positiva falsa]]
* [[Razonamiento inductivo|Razonamiento Inductivo]]
* [[Anexo:Sesgos cognitivos|Lista de sesgos cognitivos]]
* [[Estereotipo]]


== Lista de referencias ==
== Referencias ==
{{listaref}}
{{Listaref}}
{{Control de autoridades}}
[[Categoría:Sesgos cognitivos]]
[[Categoría:Sesgos cognitivos]]
[[Categoría:Wikipedia:Páginas con traducciones sin revisar]]

Revisión del 09:11 20 dic 2020

La falacia de la frecuencia base, también llamada negligencia de frecuencia o sesgo de la frecuencia base, es una falacia formal . Consiste en que si se le presenta a la mente información de frecuencia base (es decir, información general sobre la prevalencia) e información específica (es decir, información que pertenece solo a un caso específico), la mente tiende a ignorar la informacion general y enfocarse en la particular. [1]

La negligencia de la frecuencia base es una forma específica de negligencia de extensión.

Paradoja falsa positiva

Un ejemplo de la falacia de la frecuencia base es la paradoja de los falsos positivos . Esta paradoja describe situaciones en las que hay más resultados falsos positivos que verdaderos positivos. Por ejemplo, 50 de cada 1,000 personas dan positivo en una prueba de infección, pero solo 10 tienen la infección, lo que significa que 40 pruebas fueron falsos positivos. La probabilidad de un resultado positivo de la prueba está determinada no solo por la precisión de la prueba, sino también por las características de la población muestreada. [2]​ Cuando la prevalencia, la proporción de aquellos que tienen una condición determinada, es menor que la tasa de falsos positivos de la prueba, incluso las pruebas que tienen una probabilidad muy baja de dar un falso positivo en un caso individual darán más falsos positivos que verdaderos positivos en general . [3]​ La paradoja sorprende a la mayoría de la gente. [4]

Esta paradoja es especialmente contraria a la intuición cuando se interpreta un resultado positivo en una prueba en una población de baja prevalencia después de haber tratado con resultados positivos extraídos de una población de alta prevalencia. [3]​ Si la tasa de falsos positivos de la prueba es mayor que la proporción de la nueva población con la afección, entonces un administrador de la prueba cuya experiencia se haya extraído de la prueba en una población de alta prevalencia puede concluir por experiencia que un resultado positivo de la prueba generalmente indica una sujeto positivo, cuando en realidad es mucho más probable que haya ocurrido un falso positivo.

Ejemplos

Ejemplo 1: Enfermedad

Población de alta incidencia

Número
de personas
Infectado No infectado Total
Prueba
positiva
400
(verdadero positivo)
30
(falso positivo)
430
Prueba
negativa
0
(falso negativo)
570
(verdadero negativo)
570
Total 400 600 1000

Imagine realizar una prueba de enfermedades infecciosas en una población A de 1000 personas, en la que el 40% está infectado. La prueba tiene una tasa de falsos positivos del 5% (0.05) y ninguna tasa de falsos negativos. El resultado esperado de las 1000 pruebas en la población A sería:

Infectado y la prueba indica enfermedad ( verdadero positivo )
1000 ×  (40 / 100) = 400 personas recibirían un verdadero positivo
No infectado y la prueba indica enfermedad (falso positivo)
1000 × ( (100 - 40 ) / 100 )× 0.05 = 30 personas recibirían un falso positivo
Las 570 pruebas restantes son correctamente negativas.

Entonces, en la población A, una persona que recibe una prueba positiva podría tener más del 93% de confianza (  que indica correctamente la infección.

Población de baja incidencia

Número
de personas
Infectado No infectado Total
Prueba
positiva
20
(verdadero positivo)
49
(falso positivo)
69
Prueba
negativa
0
(falso negativo)
931
(verdadero negativo)
931
Total 20 980 1000

Ahora considere la misma prueba aplicada a la población B, en la que solo el 2% está infectado. El resultado esperado de 1000 pruebas en la población B sería:

Infectado y la prueba indica enfermedad ( verdadero positivo )
1000 × (2/100) = 20 personas recibirían un verdadero positivo
No infectado y la prueba indica enfermedad (falso positivo)
1000 ×((100-2)/100)× 0.05 = 49 personas recibirían un falso positivo
Las 931 (= 1000 - (49 + 20)) pruebas restantes son correctamente negativas.

En la población B, solo 20 del total de 69 personas con un resultado positivo en la prueba están realmente infectadas. Entonces, la probabilidad de estar realmente infectado después de que se le dice a uno que está infectado es solo del 29% (  para una prueba de que de otro modo parece ser "95% exacta".

Un evaluador con experiencia en el grupo A podría encontrar una paradoja que en el grupo B, un resultado que normalmente había indicado correctamente una infección ahora sea un falso positivo . La confusión de la probabilidad posterior de infección con la probabilidad previa de recibir un falso positivo es un error natural después de recibir un resultado de prueba que amenaza la salud.

Ejemplo 2: conductores ebrios

Un grupo de policías tiene alcoholímetros que muestran falsa embriaguez en el 5% de los casos en los que el conductor está sobrio. Sin embargo, los alcoholímetros nunca dejan de detectar a una persona verdaderamente borracha. Uno de cada mil conductores conduce ebrio. Supongamos que los agentes de policía detienen a un conductor al azar para administrarle una prueba de alcoholemia. Indica que el conductor está ebrio. Suponemos que no sabe nada más sobre ellos. ¿Qué tan alta es la probabilidad de que realmente estén ebrios?

Muchos responderían hasta un 95%, pero la probabilidad correcta es de alrededor del 2%.

Una explicación para esto es la siguiente: en promedio, por cada 1,000 conductores probados,

  • 1 conductor está ebrio y es 100% seguro que para ese conductor hay un resultado de prueba positivo verdadero, por lo que hay 1 resultado de prueba positivo verdadero
  • 999 conductores no están ebrios, y entre esos conductores hay un 5% de resultados falsos positivos, por lo que hay 49,95 resultados falsos positivos.

Por lo tanto, la probabilidad de que uno de los conductores entre los 1 + 49.95 = 50.95 resultados positivos de la prueba realmente esté ebrio es .

La validez de este resultado, sin embargo, depende de la validez de la suposición inicial de que el oficial de policía detuvo al conductor realmente al azar, y no debido a una mala conducción. Si existiera esa u otra razón no arbitraria para detener al conductor, entonces el cálculo también involucra la probabilidad de que un conductor ebrio conduzca de manera competente y un conductor no ebrio conduzca (de manera no) competente.

Más formalmente, se puede establecer la misma probabilidad de aproximadamente 0.02 usando el teorema de Bayes . El objetivo es encontrar la probabilidad de que el conductor esté ebrio dado que el alcoholímetro indicó que está ebrio, lo que se puede representar como

donde D significa que el alcoholímetro indica que el conductor está ebrio. El teorema de Bayes nos dice que

Se nos dijo lo siguiente en el primer párrafo:

y

Como puede ver en la fórmula, se necesita p ( D ) para el teorema de Bayes, que se puede calcular a partir de los valores anteriores usando la ley de probabilidad total :

Conectando estos números al teorema de Bayes, uno encuentra que

Ejemplo 3: identificación de terroristas

En una ciudad de 1 millón de habitantes en la que haya 100 terroristas y 999,900 no terroristas. Para simplificar el ejemplo, se asume que todas las personas presentes en la ciudad son habitantes. Por lo tanto, la probabilidad de frecuencia base de que un habitante de la ciudad seleccionado al azar sea un terrorista es 0,0001, y la probabilidad de frecuencia base de que ese mismo habitante sea un no terrorista es 0,9999. En un intento por atrapar a los terroristas, la ciudad instala un sistema de alarma con una cámara de vigilancia y un software de reconocimiento facial automático.

El software tiene dos tasas de falla del 1%:

  • La tasa de falsos negativos: si la cámara escanea a un terrorista, una campana sonará el 99% del tiempo y no sonará el 1% del tiempo.
  • La tasa de falsos positivos: si la cámara escanea a un no terrorista, una campana no sonará el 99% del tiempo, pero sonará el 1% del tiempo.

Supongamos ahora que un habitante dispara la alarma. ¿Cuál es la probabilidad de que la persona sea un terrorista? En otras palabras, ¿cuál es P (T | B), la probabilidad de que se haya detectado a un terrorista dado el toque de la campana? Alguien que cometa la 'falacia de la frecuencia base' inferiría que existe un 99% de posibilidades de que la persona detectada sea un terrorista. Aunque la inferencia parece tener sentido, en realidad es un mal razonamiento, y un cálculo a continuación mostrará que las posibilidades de que sea un terrorista en realidad están cerca del 1%, no cerca del 99%.

La falacia surge de confundir la naturaleza de dos tasas de falla diferentes. El 'número de no-campanadas por cada 100 terroristas' y el 'número de no-terroristas por cada 100 campanas' son cantidades no relacionadas. Uno no es necesariamente igual al otro, y ni siquiera tienen que ser casi iguales. Para mostrar esto, considere lo que sucede si se instala un sistema de alarma idéntico en una segunda ciudad sin terroristas en absoluto. Como en la primera ciudad, la alarma suena para 1 de cada 100 habitantes no terroristas detectados, pero a diferencia de la primera ciudad, la alarma nunca suena para un terrorista. Por lo tanto, el 100% de todas las ocasiones en que suena la alarma son para no terroristas, pero ni siquiera se puede calcular una tasa de falsos negativos. El 'número de no terroristas por cada 100 campanas' en esa ciudad es 100, pero P (T | B) = 0%. Hay cero posibilidades de que se haya detectado a un terrorista dado el toque de la campana.

Imagine que la población total de la primera ciudad de un millón de personas pasa frente a la cámara. Aproximadamente 99 de los 100 terroristas activarán la alarma, y también lo harán unos 9,999 de los 999,900 no terroristas. Por tanto, unas 10.098 personas dispararán la alarma, entre las que unas 99 serán terroristas. Entonces, la probabilidad de que una persona que active la alarma sea realmente un terrorista, es de solo 99 en 10,098, que es menos del 1% y muy, muy por debajo de nuestra estimación inicial del 99%.

La falacia de la frecuencia base es tan engañosa en este ejemplo porque hay muchos más no terroristas que terroristas, y el número de falsos positivos (no terroristas escaneados como terroristas) es mucho mayor que los verdaderos positivos (el número real de terroristas) .

Hallazgos en psicología

En experimentos, se ha descubierto que la gente prefiere individualizar la información sobre la información general cuando la primera está disponible. [5][6][7]

En algunos experimentos, se pidió a los estudiantes que estimaran los promedios de calificaciones (GPA) de estudiantes hipotéticos. Cuando se les dan estadísticas relevantes sobre la distribución del GPA, los estudiantes tienden a ignorarlas si se les da información descriptiva sobre el estudiante en particular, incluso si la nueva información descriptiva era obviamente de poca o ninguna relevancia para el desempeño escolar. [6]​ Este hallazgo se ha utilizado para argumentar que las entrevistas son una parte innecesaria del proceso de admisión a la universidad porque los entrevistadores no pueden elegir candidatos exitosos mejor que las estadísticas básicas.

Los psicólogos Daniel Kahneman y Amos Tversky intentaron explicar este hallazgo en términos de una regla simple o "heurística" llamada representatividad . Argumentaron que muchos juicios relacionados con la probabilidad, o con la causa y efecto, se basan en cuán representativa es una cosa de otra o de una categoría. [6]​ Kahneman considera que el abandono de la frecuencia base es una forma específica de abandono de la extensión . [8]​ Richard Nisbett ha argumentado que algunos sesgos de atribución, como el error de fundamental de atribución, son ejemplos de la falacia de la frecuencia base: la gente no usa la "información de consenso" (la "frecuencia base") sobre cómo otros se comportaron en situaciones similares y prefieren atribuciones disposicionales más simples . [9]

Existe un debate considerable en psicología sobre las condiciones bajo las cuales las personas aprecian o no la información de frecuencia base. [10][11]​ Los investigadores del programa de heurística y sesgos han enfatizado los hallazgos empíricos que muestran que las personas tienden a ignorar las tasas base y hacer inferencias que violan ciertas normas de razonamiento probabilístico, como el teorema de Bayes . La conclusión extraída de esta línea de investigación fue que el pensamiento probabilístico humano es fundamentalmente defectuoso y propenso a errores. [12]​ Otros investigadores han enfatizado el vínculo entre los procesos cognitivos y los formatos de información, argumentando que tales conclusiones generalmente no están justificadas. [13][14]

Considere nuevamente el ejemplo 2 anterior. La inferencia requerida es estimar la probabilidad (posterior) de que un conductor (elegido al azar) esté ebrio, dado que la prueba del alcoholímetro es positiva. Formalmente, esta probabilidad se puede calcular utilizando el teorema de Bayes, como se muestra arriba. Sin embargo, existen diferentes formas de presentar la información relevante. Considere la siguiente variante formalmente equivalente del problema:

 1 de cada 1000 conductores conduce ebrio. Los alcoholímetros nunca dejan de detectar a una persona verdaderamente borracha. Para 50 de los 999 conductores que no están ebrios, el alcoholímetro muestra falsamente la embriaguez. Supongamos que los policías detienen a un conductor al azar y lo obligan a tomar una prueba de alcoholemia. Indica que están ebrios. Suponemos que no sabe nada más sobre ellos. ¿Qué tan alta es la probabilidad de que realmente estén ebrios?

En este caso, la información numérica relevante — p (ebrio), p ( D | ebrio), p ( D | sobrio) - se presenta en términos de frecuencias naturales con respecto a una determinada clase de referencia (ver problema de clase de referencia ). Los estudios empíricos muestran que las inferencias de las personas se corresponden más estrechamente con la regla de Bayes cuando la información se presenta de esta manera, lo que ayuda a superar la negligencia de la frecuencia base en las personas comunes [14]​ y los expertos. [15]​ Como consecuencia, organizaciones como la Colaboración Cochrane recomiendan usar este tipo de formato para comunicar estadísticas de salud. [16]​ Enseñar a las personas a traducir este tipo de problemas de razonamiento bayesiano en formatos de frecuencia natural es más eficaz que simplemente enseñarles a introducir probabilidades (o porcentajes) en el teorema de Bayes. [17]​ También se ha demostrado que las representaciones gráficas de frecuencias naturales (por ejemplo, matrices de iconos) ayudan a las personas a hacer mejores inferencias. [18][19]

¿Por qué son útiles los formatos de frecuencia natural? Una razón importante es que este formato de información facilita la inferencia requerida porque simplifica los cálculos necesarios. Esto se puede ver cuando se usa una forma alternativa de calcular la probabilidad requerida p (ebrio | D ):

donde N (ebrio ∩ D ) denota el número de conductores que están ebrios y obtienen un resultado positivo en el alcoholímetro, y N ( D ) indica el número total de casos con un resultado positivo en el alcoholímetro. La equivalencia de esta ecuación a la anterior se deriva de los axiomas de la teoría de la probabilidad, según los cuales N (ebrios ∩ D ) = N × p ( D | ebrio) × p (ebrio). Es importante destacar que, aunque esta ecuación es formalmente equivalente a la regla de Bayes, no es psicológicamente equivalente. El uso de frecuencias naturales simplifica la inferencia porque la operación matemática requerida se puede realizar en números naturales, en lugar de fracciones normalizadas (es decir, probabilidades), porque hace que la gran cantidad de falsos positivos sea más transparente y porque las frecuencias naturales exhiben una "estructura de conjunto anidado". [20][21]

No todos los formatos de frecuencia facilitan el razonamiento bayesiano. [21][22]​ Las frecuencias naturales se refieren a la información de frecuencia que resulta del muestreo natural, [23]​ que preserva la información de la frecuencia base (por ejemplo, el número de conductores ebrios cuando se toma una muestra aleatoria de conductores). Esto es diferente del muestreo sistemático, en el que las tasas base se fijan a priori (por ejemplo, en experimentos científicos). En el último caso, no es posible inferir la probabilidad posterior p (ebrio | prueba positiva) al comparar el número de conductores que están ebrios y dan positivo en la prueba con el número total de personas que obtienen un resultado positivo en el alcoholímetro, porque la información de frecuencia base no se conserva y debe reintroducirse explícitamente utilizando el teorema de Bayes.

Ver también

Referencias

  1. «Logical Fallacy: The Base Rate Fallacy». Fallacyfiles.org. Consultado el 15 de junio de 2013. 
  2. Rheinfurth, M. H.; Howell, L. W. (March 1998). Probability and Statistics in Aerospace Engineering. NASA. p. 16. «MESSAGE: False positive tests are more probable than true positive tests when the overall population has a low prevalence of the disease. This is called the false-positive paradox.» 
  3. a b Vacher, H. L. (May 2003). «Quantitative literacy - drug testing, cancer screening, and the identification of igneous rocks». Journal of Geoscience Education: 2. «At first glance, this seems perverse: the less the students as a whole use steroids, the more likely a student identified as a user will be a non-user. This has been called the False Positive Paradox».  - Citing: Gonick, L.; Smith, W. (1993). The cartoon guide to statistics. New York: Harper Collins. p. 49. 
  4. Madison, B. L. (August 2007). «Mathematical Proficiency for Citizenship». En Schoenfeld, A. H., ed. Assessing Mathematical Proficiency. Mathematical Sciences Research Institute Publications (New edición). Cambridge University Press. p. 122. ISBN 978-0-521-69766-8. «The correct [probability estimate...] is surprising to many; hence, the term paradox 
  5. Bar-Hillel, Maya (1980). «The base-rate fallacy in probability judgments». Acta Psychologica 44 (3): 211-233. doi:10.1016/0001-6918(80)90046-3. 
  6. a b c Kahneman, Daniel; Amos Tversky (1973). «On the psychology of prediction». Psychological Review 80 (4): 237-251. doi:10.1037/h0034747. 
  7. Kahneman, Daniel; Amos Tversky (1985). «Evidential impact of base rates». En Daniel Kahneman, Paul Slovic & Amos Tversky, ed. Judgment under uncertainty: Heuristics and biases 185. pp. 153-160. doi:10.1126/science.185.4157.1124. 
  8. Kahneman, Daniel (2000). «Evaluation by moments, past and future». En Daniel Kahneman and Amos Tversky, ed. Choices, Values and Frames. 
  9. Nisbett, Richard E.; E. Borgida; R. Crandall; H. Reed (1976). «Popular induction: Information is not always informative». En J. S. Carroll & J. W. Payne, ed. Cognition and social behavior 2. pp. 227-236. 
  10. Koehler, J. J. (2010). «The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges». Behavioral and Brain Sciences 19: 1-17. doi:10.1017/S0140525X00041157. 
  11. Barbey, A. K.; Sloman, S. A. (2007). «Base-rate respect: From ecological rationality to dual processes». Behavioral and Brain Sciences 30 (3): 241-254; discussion 255-297. PMID 17963533. doi:10.1017/S0140525X07001653. 
  12. Tversky, A.; Kahneman, D. (1974). «Judgment under Uncertainty: Heuristics and Biases». Science 185 (4157): 1124-1131. Bibcode:1974Sci...185.1124T. PMID 17835457. doi:10.1126/science.185.4157.1124. 
  13. Cosmides, Leda; John Tooby (1996). «Are humans good intuitive statisticians after all? Rethinking some conclusions of the literature on judgment under uncertainty». Cognition 58: 1-73. doi:10.1016/0010-0277(95)00664-8. 
  14. a b Gigerenzer, G.; Hoffrage, U. (1995). «How to improve Bayesian reasoning without instruction: Frequency formats». Psychological Review 102 (4): 684. doi:10.1037/0033-295X.102.4.684. 
  15. Hoffrage, U.; Lindsey, S.; Hertwig, R.; Gigerenzer, G. (2000). «Medicine: Communicating Statistical Information». Science 290 (5500): 2261-2262. PMID 11188724. doi:10.1126/science.290.5500.2261. 
  16. Akl, E. A.; Oxman, A. D.; Herrin, J.; Vist, G. E.; Terrenato, I.; Sperati, F.; Costiniuk, C.; Blank, D. et al. (2011). «Using alternative statistical formats for presenting risks and risk reductions». En Schünemann, Holger, ed. The Cochrane Database of Systematic Reviews (3): CD006776. PMC 6464912. PMID 21412897. doi:10.1002/14651858.CD006776.pub2. 
  17. Sedlmeier, P.; Gigerenzer, G. (2001). «Teaching Bayesian reasoning in less than two hours». Journal of Experimental Psychology: General 130 (3): 380. doi:10.1037/0096-3445.130.3.380. 
  18. Brase, G. L. (2009). «Pictorial representations in statistical reasoning». Applied Cognitive Psychology 23 (3): 369-381. doi:10.1002/acp.1460. 
  19. Edwards, A.; Elwyn, G.; Mulley, A. (2002). «Explaining risks: Turning numerical data into meaningful pictures». BMJ 324 (7341): 827-830. PMC 1122766. PMID 11934777. doi:10.1136/bmj.324.7341.827. 
  20. Girotto, V.; Gonzalez, M. (2001). «Solving probabilistic and statistical problems: A matter of information structure and question form». Cognition 78 (3): 247-276. PMID 11124351. doi:10.1016/S0010-0277(00)00133-5. 
  21. a b Hoffrage, U.; Gigerenzer, G.; Krauss, S.; Martignon, L. (2002). «Representation facilitates reasoning: What natural frequencies are and what they are not». Cognition 84 (3): 343-352. PMID 12044739. doi:10.1016/S0010-0277(02)00050-1. 
  22. Gigerenzer, G.; Hoffrage, U. (1999). «Overcoming difficulties in Bayesian reasoning: A reply to Lewis and Keren (1999) and Mellers and McGraw (1999)». Psychological Review 106 (2): 425. doi:10.1037/0033-295X.106.2.425. 
  23. Kleiter, G. D. (1994). «Natural Sampling: Rationality without Base Rates». Contributions to Mathematical Psychology, Psychometrics, and Methodology. Recent Research in Psychology. pp. 375-388. ISBN 978-0-387-94169-1. doi:10.1007/978-1-4612-4308-3_27.