Sesgos y falacias: Una enciclopedia de bolsillo. (Primera parte)

La definición aburrida de sesgo es que es un error que pasamos por alto y nos conduce a conclusiones que pueden estar equivocadas, literalmente. La definición más acertada, en mi opinión, es que los sesgos son los equivalentes a aquellas moscas de las narices que persiguen tu plato de comida: intentarán hacer que te equivoques al interpretar estadística, al pensar, al elegir y tomar una decisión… y encima, por si fuera poco, existen muchos tipos de sesgos y, lo que es peor, ¡están en cualquier lugar!

Al leer un periódico podemos encontrarnos con multitud de datos estadísticos, y para poder extraer conclusiones correctas, debemos tener cuidado de no equivocarnos al interpretarlos y leerlos de un modo adecuado. Por ejemplo, el número de muertes por cáncer en California no para de crecer año tras año. En el año 2000 se registraron cerca de 53.000 muertes por cáncer. A lo largo de los años la cifra crece hasta situarse en las más de 56.000 defunciones causadas por cáncer en 2010. La idea que nos transmite esta noticia es que la enfermedad avanza a un ritmo mayor llevándose consigo a cada vez más humanos.

Efectivamente, estás en lo cierto. Pero eso no quiere decir que la probabilidad de morir por cáncer en california sea mayor: si bien hemos acertado al decir que cada vez son más las personas que mueren, también hay que tener en cuenta que son más los que nacen. La población en California ha pasado de 33 a 37 millones en el periodo de 2000-2010. Así pues, cada vez son más personas, por lo que es normal que mueran más y en ningún caso podemos afirmar que la probabilidad de morir por cáncer es mayor porque sería falso, pero pese a saber esto, la idea que puede transmitirnos es que la probabilidad es mayor.

Aquí acabamos de ver un sesgo típico de interpretación que puedes encontrar en cualquier revista. Realmente los datos de muertes por cáncer a lo largo de los años no nos dan mucha información. En cambio, lo que sí nos puede ser útil sería la tasa de muertes por cáncer a lo largo de los años, es decir, el número de muertes de cáncer por cada 100,000 muertes a lo largo de los años. Al realizar la tasa, ya estamos teniendo en cuenta la población total y su aporte de información. De hecho, si miramos los datos, vemos que cada vez hay menos muertes por cáncer por cada 100,000 muertes.

Pero… ¿Y si resulta que muere mucha más gente ahora por culpa de accidentes cerebrovasculares y eso hace que por cada 100,000 muertes hayan menos por cáncer? Como ya he avisado al principio, los sesgos están en todas partes y hay que ser muy cuidadoso al leer datos. Nadie dijo que sea fácil librarse de ellos, pero por algún sitio debemos empezar.

Con esta pequeña reseña quería hacerte ver que, querido lector, nadie está a salvo de equivocarse y de engañarse a sí mismo. Todo el mundo asume y selecciona datos inconscientemente por necesidades prácticas.

La existencia de sesgos cognitivos emana de la necesidad evolutiva de actuar rápidamente y adoptar una respuesta ante ciertos estímulos, situaciones o problemas en los que no podemos procesar toda la información disponible y se filtra de manera selectiva. No hay humano sobre la faz de la Tierra que se libre de los sesgos, ni siquiera los galardonados con el premio nobel en medicina como Richard Hensinky. A veces uno intenta evitar el publicar datos de modo que puedan malinterpretarse, pero en algunos medios de comunicación precisamente se acogen a los sesgos para influir en la opinión pública manipulándote tanto a ti como a mí para su propio beneficio. Y es muy sencillo de hacer. Por ejemplo: Richard Hensinky no es ningún premio nobel, me he inventado hasta el nombre. Es un dato que no tiene relevancia y se ha asumido como cierto durante la lectura del artículo. En cambio, si la afirmación hubiera sido sobre un tema que choca de frente con tus creencias, hubieras reaccionado buscando información para saber si dicha afirmación es falsa o cierta. Desde mi campo, si la afirmación hubiese sido algo parecido a “Los fantasmas existen” hubiera buscado información sobre ese caso justo al leer la frase.

Esto, de hecho, es otro sesgo conocido como Prejuicio de desconfirmación, y consiste en que cuando nos encontramos con algo que contradice nuestras creencias, intentamos buscar información para desacreditarlo, mientras que no la buscamos como con el caso del nobel y Richard porque no nos contradice.

También existe un tipo de razonamiento erróneo que está íntimamente relacionado con los sesgos: el argumento falaz. Los argumentos falaces, también llamados falacias a secas,  parecen ser correctos, pero realmente no lo son. A diferencia de los sesgos, que se dan al interpretar datos, las falacias se dan cuando argumentamos.  Existen decenas de tipos de falacias. No las trataremos todas, pero sí aquella mayoría que está relacionada (o al menos, son próximas) al ámbito científico y las podemos encontrar en casi cualquier debate televisivo, normalmente referido a términos políticos porque de ciencia en la caja tonta, poco. No obstante, en el campo de lo científico se dan comúnmente cuando se debate sobre, por ejemplo, los productos naturales. Es el caso del famoso Pan bimbo 100% natural de Eduard Punset.

En el vídeo se puede apreciar con mucha claridad como escalonan lo natural frente a lo artificial, colocando lo natural en la cúspide de la pirámide y, en un estante inferior, lo artificial. Dejando de lado la crítica que podría recibir el vídeo por los colorantes, números E y aditivos (que los propios colorantes son un tipo de números E y éstos a su vez son aditivos y no tres categorías separadas), centrémonos en las falacias: Ocurre una muy interesante e incluso me atrevería a afirmar que es la más común en el marco de la publicidad hoy en día: la falacia naturalista. El argumento se vuelve erróneo cuando damos por hecho que aquello que es natural (es decir, no ha sido procesado o lo ha sido muy poco) es más bueno para la salud en términos generales. Un pan bimbo natural es mejor que un pan bimbo industrial, se dice. Pero no es así, no tiene por qué. Todos los aditivos alimentarios, todo el proceso por el cual se manufactura el pan y todos los elementos empleados han pasado rigurosos controles que acreditan la calidad del producto. Sea natural o no, ambos productos son igual de buenos. Pero lo que sí es seguro es que un alimento no será más saludable per se por el hecho de ser natural. El ser natural no aporta ninguna propiedad al alimento. Lo que aporta cualidades específicas a los alimentos es su composición, no su origen.

Es solo un pequeño ejemplo y muy resumido (porque la falacia naturalista puede dar mucho de que hablar). En este artículo analizaremos el sesgo de confirmación, el argumento ad populum y el efecto Bandwagon, el sesgo del experimentador, el efecto del observador expectante, la obediencia a la autoridad y la falacia de autoridad, las famosas pareidolias, la falacia del naturalista y, por último, la falsa causa y la superstición de la paloma.

 

El sesgo de confirmación

El sesgo de confirmación es la tendencia de una persona a abrazar aquella información que confirman sus hipótesis o ideas, o dicho de otro modo, escuchar solo lo que nos interesa. Escogemos de modo selectivo la información que está acorde con nuestras creencias en lugar de intentar falsarlas y nos formulamos preguntas dirigidas a confirmar nuestra creencia en lugar de elaborar preguntas encaminadas a falsarla. Este sesgo puede verse claramente en la conspiración de las torres gemelas o en un simple estudio científico. En el caso de las torres gemelas, podemos observar como aquellos que defienden que fueron demolidas de manera controlada buscan pruebas únicamente confirmatorias como puede ser la velocidad de caída, que el diseñador de ellas había dicho que estaban construidas a prueba de aviones, o que se detectó supertermita en su supuesta demolición. Todas las evidencias que buscan están dirigidas únicamente a confirmar la hipótesis inicial, pero nunca se busca pruebas para negarla. Se puede decir que las personas estamos sesgadas e inclinadas hacia la confirmación de las creencias propias.

Otro ejemplo muy sencillo es que si te digo que he pensado un número y debes adivinarlo y sospechas que es el tres, preguntarás si es un número impar en lugar de si es un número par, ¡lo intentarás confirmar en lugar de falsar pese a que ambas preguntas ofrecen exactamente el mismo tipo de información!

Un experimento otorgaba a los sujetos una prueba particularmente compleja de regla-descubrimiento que requería el movimiento de objetos en simulación por ordenador. Los objetos que aparecían en la pantalla del ordenador seguían unas leyes específicas que los sujetos debían comprender, pudiendo «disparar» los objetos por la pantalla para probar sus hipótesis. A pesar de los muchos intentos durante una sesión de diez horas, ninguno de los sujetos averiguó qué reglas seguía el sistema. Típicamente trataban de confirmar sus hipótesis en lugar de refutarlas, mostrándose reacios a considerar alternativas. Incluso tras ver pruebas que, objetivamente, refutaban sus hipótesis, con frecuencia continuaban haciendo los mismos tests. Algunos sujetos fueron instruidos en formas apropiadas de testar hipótesis pero estas instrucciones apenas tuvieron efecto.

Un científico tiene por norma general intentar falsar su propia hipótesis para ver si es cierta pero también puede caer en la tentación de recopilar solo la información favorable a su hipótesis en lugar de aquella que la niega, dándole menos importancia a esta última. Puede ser que si está buscando un producto químico que genere buena olor y al hacer un experimento no salga lo que esperaba, atribuya el fallo a un error de procedimiento y no a que su hipótesis inicial es falsa. Nos cuesta mucho desarraigarnos de nuestras propias ideas, y es algo que Ramón y Cajal advertía en Tónicos de la voluntad. Y eso puede ser un peligro porque nos conduce sin querer a falsas creencias. Darnos cuenta de que estamos equivocados es el primer paso hacia estar en lo cierto.

 

Cre555o que es mucho más interesante vivir sin saber que hacerlo con respuestas equivocadas. Tengo respuestas aproximadas, convicciones posibles y distintos grados de certeza sobre diferentes cosas, pero no hay nada de lo que esté absolutamente seguro, y hay muchas cosas sobre las que no sé nada.                                                                      Richard Feynman.

 

De hecho, el término «sesgo de confirmación» fue acuñado por Peter Cathcart Wason, psicólogo inglés. Publicó en 1960 un estudio en el que desafió a varios sujetos a que identificaran una regla que seguían tres números. Wason le daba tres números inicialmente (2, 4, 6)  que cumplían la regla y a partir de ellos tenían que elaborar secuencias para encontrar la regla y él les decía si la cumplía o no. Aunque la regla ciertamente era sencilla («cualquier secuencia creciente»), los sujetos encontraron grandes dificultades para averiguarla y se decantaban normalmente por reglas más complejas, como «el número del medio es la media del primero y el último». Los sujetos, al parecer, probaban únicamente ejemplos positivos con secuencias que cumplían con su creencia. Por ejemplo, si creían que la regla era «cada número es dos unidades mayor que su predecesor», creaban series que cumplieran esta regla, como (11,13,15) en lugar de secuencias como (11,12,19), que no la cumplirían.

A mi, por ejemplo, me gusta leer artículos sobre pseudociencia y normalmente utilizo las mismas fuentes; casi todas ellas escépticas pero muy pocas acientíficas y es que como dije al principio, nadie se libra de estos sesgos: nos sale de modo natural. Pero esto no es motivo para olvidarnos de ellos: hay que poner soluciones. Debemos recordarnos constantemente en no caer en este tentador sesgo.

 

El argumento ad populum y el efecto Bandwagon

El argumento ad populum es una falacia que se da cuando argumentamos de la siguiente manera: Si mucha gente cree en algo, ese algo debe ser cierto. Lo que viene a resumirse en la famosa frase de que mil moscas no pueden estar equivocadas. Un ejemplo práctico es que la gran mayoría de la población es creyente, y no por ello existirá una deidad: La opinión pública y la veracidad de una hipótesis son dos situaciones completamente diferentes y no relacionados. Según los datos del CIS, hay una amplia mayoría que se considera creyente pero en ningún caso alguien puede dar mayor credibilidad al debate de la existencia de Dios basándose en el número de creyentes que hay, pues la suma de argumentos individuales no da un argumento mejor, sino el mismo.

Así pues, para debatir sobre la existencia de Dios deberíamos comparar los argumentos al desnudo de los creyentes y de los ateos, pero en ningún caso un argumento cogerá fuerza por el número de personas que lo esgriman, y si alguien lo creyera estaría incurriendo en la falacia ad populum.

Evolución del porcentaje de católicos en España – CIS

 

Millones de personas se equivocaron al creer que la Tierra era plana. Además, ésta tiene cierto peligro porque es ciertamente seductora: Apela a emociones como nuestro deseo de integrarse en grupo, hacerte creer que estás solo o en un grupo reducido, ir en el sentido opuesto de la corriente como si ello fuera algo malo e incluso indirectamente se puede relacionar con ser antidemócrata.

 

“Y no es que lo diga yo: lo dice todo el mundo”

“¿Por qué lo hiciste? Porque lo hacía todo el mundo”

“La mayoría de la gente opina lo mismo que yo”

“Todo el mundo sabe que esto es así”

 

A la Naturaleza le importa un churro tu opinión: Lo que opine una mayoría no es indicativo de certeza o veracidad. Que no te la cuelen. Si cincuenta millones de personas creen en una tontería, sigue siendo una tontería.

Por otra parte tenemos el efecto bandwagon (o conocido también como efecto arrastre). Es un tipo de sesgo que consiste en que, a menudo, las personas hacen y creen ciertas cosas fundándose en el hecho de que muchas otras personas hacen y creen en esas mismas cosas. Está muy relacionada con la falacia ad populum porque el efecto bandwagon es quien le da vida.

El término bandwagon  significa “un carro que lleva una banda en un desfile” a grosso modo. La frase “salta en el bandwagon” fue usada por primera vez en la política estadounidense en 1848 por causa de Dan Rice, que fue un payaso profesional de circo, usó su bandwagon para las apariciones de la campaña de Zachary Tailor para ganar atención al usar música. Conforme la campaña de Taylor se hizo más exitosa, más políticos se esforzaron por conseguir un asiento en el bandwagon, en espera de asociarse con el éxito. Más tarde, en 1900, durante la época de la campaña presidencial de William Jennings Bryan, los bandwagons se habían convertido en un referente de las campañas, y ‘subirse al carro’ fue usado como un término desviado que implicaba que la gente se asociaba a sí misma con el éxito sin considerar lo que asociaban a sí mismos con él.

Además, también tiene un curioso efecto en microeconomía porque describe las interacciones de la demanda y las preferencias. Este efecto se presenta cuando la preferencia a comprar un producto se incrementa cuando se incrementa también el número de las personas que lo compran. Dicho de otro modo, mientras más personas lo compren, más se incita al resto a comprarlo. Esta interacción altera potencialmente  los resultados normales de la teoría de la oferta y demanda, la cual asume que los consumidores toman decisiones de compra solamente basados en el precio y en su propia preferencia.

 

Referencias.

Simon, H. A. (1955). «A behavioral model of rational choice.» The Quarterly Journal of Economics, 69(1), 99 -118. doi 10.2307/1884852

Jeng, M. (2006): «A selected history of expectation bias in physics», artículo en inglés en la revista American Journal of Physics, 74: 578-583

Oswald, Margit E.; Grosjean, Stefan (2004), «Confirmation Bias», Cognitive Illusions: A Handbook on Fallacies and Biases in Thinking, Judgement and Memory, Hove, UK: Psychology Press, pp. 79-96.

Número E, Falacia naturalista, Aditivo alimentario – Extraído de https://es.wikipedia.org

Mynatt, Clifford R.; Doherty, Michael E.; Tweney, Ryan D. (1978), «Consequences of confirmation and disconfirmation in a simulated research environment», Quarterly Journal of Experimental Psychology 30 (3): 395–406

Wason, Peter C. (1968), «Reasoning about a rule», Quarterly Journal of Experimental Psychology (Psychology Press) 20 (3): 273–285

Centro de Investigaciones Sociológicas. Julio 2015, estudio nº3104.

http://escepticcionario.com/

The following two tabs change content below.

Adrián Gómez

Estudiante de química en la Universidad de Barcelona. No sabe por qué pero le atrae todo lo que implique sesgos y pseudociencia. Curiosamente escéptico y escépticamente curioso. Enamorado de Tim Minchin.

Sobre Adrián Gómez

Estudiante de química en la Universidad de Barcelona. No sabe por qué pero le atrae todo lo que implique sesgos y pseudociencia. Curiosamente escéptico y escépticamente curioso. Enamorado de Tim Minchin.
Añadir a favoritos el permalink.