miércoles, 13 de diciembre de 2017

Por qué los hechos no cambian nuestras mentes

Nuevos descubrimientos sobre la mente humana muestran las limitaciones de la razón.

Articulo original AQUÍ - Publicado en febrero del 2017




En 1975, investigadores de Stanford invitaron a un grupo de estudiantes universitarios a participar en un estudio sobre el suicidio. Fueron presentados con pares de notas de suicidio. En cada pareja, una nota había sido compuesta por un individuo al azar, la otra por una persona que posteriormente había tomado su propia vida. A los estudiantes se les pidió que distinguieran entre las notas auténticas y las falsas. 

Algunos estudiantes descubrieron que tenían un genio para la tarea. De veinticinco pares de notas, identificaron correctamente la verdadera veinticuatro veces. Otros descubrieron que no tenían esperanza. Identificaron la nota real en sólo diez casos.

Como sucede a menudo con los estudios psicológicos, todo el montaje fue un juego. Aunque la mitad de las notas eran auténticas -que habían sido obtenidas en la oficina del forense del condado de Los Ángeles- las puntuaciones eran ficticias. Los estudiantes a quienes se les había dicho que casi siempre tenían razón, en promedio, no eran más exigentes que aquellos a quienes se les había dicho que en su mayoría estaban equivocados.En la segunda fase del estudio, el engaño fue revelado. A los estudiantes se les dijo que el verdadero objetivo del experimento era medir sus respuestas al pensar que tenían razón o estaban equivocados. 

Finalmente, se les pidió a los estudiantes que estimaran cuántas notas de suicidio habían categorizado correctamente y cuántas pensaban que un estudiante promedio conseguiría las respuestas correctas. En este punto, algo curioso sucedió. Los estudiantes en el grupo de puntaje alto dijeron que pensaban que, de hecho, les había ido bastante bien -significativamente mejor que al estudiante promedio- aunque, como se les había dicho, no tenían motivos para creer esto. Por el contrario, aquellos que habían sido asignados al grupo de puntaje bajo dijeron que pensaban que habían hecho algo mucho peor que el estudiante promedio-una conclusión que era igualmente infundada."Una vez formados", observaron secamente los investigadores,"las impresiones son notablemente perseverantes".Unos años más tarde, un nuevo grupo de estudiantes de Stanford fue reclutado para un estudio relacionado. A los estudiantes se les entregó paquetes de información sobre un par de bomberos, Frank K. y la biografía de George H. Frank, notaron que, entre otras cosas, tenía una hija pequeña y le gustaba bucear. George tenía un hijo pequeño y jugaba al golf. 

Los paquetes también incluían las respuestas de los hombres sobre lo que los investigadores llamaron la Prueba de Elección Riesgo-Conservador. Según una versión del paquete, Frank era un bombero exitoso que, en la prueba, casi siempre iba con la opción más segura. En la otra versión, Frank también eligió la opción más segura, pero era un pésimo bombero que había sido puesto "en el reporte" por sus supervisores varias veces. Una vez más, a mitad del estudio, se informó a los estudiantes que habían sido engañados y que la información que habían recibido era totalmente ficticia. Luego se les pidió a los estudiantes que describieran sus propias creencias. ¿Qué tipo de actitud hacia el riesgo pensaban que tendría un bombero exitoso? Los estudiantes que habían recibido el primer paquete pensaron que lo evitaría. Los estudiantes del segundo grupo pensaron que lo aceptaría.Incluso después de que la evidencia "por sus creencias ha sido totalmente refutada, la gente no logra hacer las revisiones apropiadas en esas creencias", anotaron los investigadores. 

En este caso, el fracaso fue "particularmente impresionante", ya que dos puntos de datos nunca habrían sido suficiente información para generalizar.Los estudios de Stanford se hicieron famosos. Procedente de un grupo de académicos en los años setenta, la afirmación de que la gente no puede pensar con claridad fue chocante. Ya no lo es. Miles de experimentos posteriores han confirmado (y elaborado) este hallazgo. Como todos los que han seguido la investigación -o incluso de vez en cuando recogieron una copia de Psychology Today- saben, cualquier estudiante graduado con un portapapeles puede demostrar que las personas que parecen razonables a menudo son totalmente irracionales. Rara vez esta percepción ha parecido más relevante de lo que parece en este momento. Sin embargo, queda un rompecabezas esencial: ¿Cómo hemos llegado a ser así?En un nuevo libro,"El Enigma de la Razón" (Harvard), los científicos cognitivos Hugo Mercier y Dan Sperber se atreven a contestar esta pregunta. Mercier, que trabaja en un instituto de investigación francés en Lyon, y Sperber, ahora con sede en la Universidad de Europa Central, en Budapest, señalan que la razón es un rasgo evolucionado, como el bipedalismo o la visión tricolor. 

Surgió en las sabanas de África, y debe ser entendido en ese contexto.Desprovisto de mucho de lo que podría llamarse cognitivo-ciencia-ese, el argumento de Mercier y Sperber corre, más o menos, como sigue: la mayor ventaja de los humanos sobre otras especies es nuestra capacidad de co-operar. La cooperación es difícil de establecer y casi igual de difícil de mantener. Para cualquier individuo, el "pasar piola" es siempre el mejor curso de acción. La razón desarrollada no nos permitió resolver problemas abstractos, lógicos o incluso ayudarnos a sacar conclusiones de datos desconocidos, sino que se desarrolló para resolver los problemas planteados por la convivencia en grupos colaborativos."La razón es una adaptación al nicho hipersocial que los humanos han evolucionado para sí mismos ", escriben Mercier y Sperber. Hábitos mentales que parecen raros o tontos o simplemente tontos desde un punto de vista "intelectualista" se muestran astutos cuando son vistos desde una perspectiva social "interaccionista".Considere lo que se ha llegado a conocer como "sesgo de confirmación", la tendencia de las personas a adoptar información que apoya sus creencias y rechazar la información que las contradice. 

De las muchas formas de pensamiento erróneo que se han identificado, el sesgo de confirmación está entre las mejores catalogadas; es el tema de los experimentos que valen la pena en libros de texto enteros. Uno de los más famosos se llevó a cabo, de nuevo, en Stanford. Para este experimento, los investigadores reunieron a un grupo de estudiantes que tenían opiniones opuestas sobre la pena capital. La mitad de los estudiantes estaban a favor y pensaron que disuadía el crimen; la otra mitad estaban en contra y pensaron que no tenía efecto sobre el crimen.A los estudiantes se les pidió que respondieran a dos estudios. Uno proporcionó datos en apoyo del argumento de disuasión, y el otro proporcionó datos que lo pusieron en tela de juicio. Ambos estudios -usted lo adivinó- fueron creados, y habían sido diseñados para presentar lo que eran, objetivamente hablando, estadísticas igualmente convincentes. Los estudiantes que habían apoyado originalmente la pena capital calificaron los datos a favor de la disuasión como altamente creíbles y los datos anti-eterrence poco convincentes; los estudiantes que originalmente se habían opuesto a la pena capital hicieron lo contrario. 

Al final del experimento, a los estudiantes se les preguntó una vez más sobre sus puntos de vista. Aquellos que habían empezado a favor de la pena capital ahora estaban aún más a favor de ella; aquellos que se oponían a ella eran aún más hostiles.Si la razón está diseñada para generar juicios sólidos, entonces es difícil concebir un defecto de diseño más serio que el sesgo de confirmación. Imagínate, sugieren Mercier y Sperber, un ratón que piensa como nosotros. Tal ratón,"empeñado en confirmar su creencia de que no hay gatos alrededor", pronto sería la cena. En la medida en que el sesgo de confirmación lleva a las personas a descartar la evidencia de amenazas nuevas o subestimadas -el equivalente humano del gato que está a la vuelta de la esquina- es un rasgo contra el que se debería haber escogido. El hecho de que tanto nosotros como ella sobrevivamos, argumentan Mercier y Sperber, demuestra que debe tener alguna función adaptativa, y esa función, sostienen, está relacionada con nuestra "hipersociabilidad".Mercier y Sperber prefieren el término "predisposición mísera". 

Los humanos, señalan, no son aleatoriamente ridículos. Presentado con el argumento de alguien más, somos muy hábiles en detectar las debilidades. Casi invariablemente, las posiciones por las que estamos ciegos son las nuestras.Un experimento reciente realizado por Mercier y algunos colegas europeos demuestra claramente esta asimetría. Se pidió a los participantes que respondieran una serie de simples problemas de razonamiento. Luego se les pidió que explicaran sus respuestas, y se les dio la oportunidad de modificarlas si identificaban errores. La mayoría estaba satisfecha con sus elecciones originales; menos del quince por ciento cambió de opinión en el segundo paso.En el tercer paso, se les mostró a los participantes uno de los mismos problemas, junto con su respuesta y la respuesta de otro participante, que había llegado a una conclusión diferente. Una vez más, se les dio la oportunidad de cambiar sus respuestas. Pero se había jugado un truco: las respuestas que se les presentaban como de otra persona eran en realidad suyas, y viceversa. Aproximadamente la mitad de los participantes se dieron cuenta de lo que estaba pasando. Entre la otra mitad, de repente la gente se volvió mucho más crítica. Casi el sesenta por ciento rechazó ahora las respuestas con las que antes estaban satisfechos.

Este desequilibrio, según Mercier y Sperber, refleja la tarea que la razón evolucionó para cumplir, que es evitar que los otros miembros de nuestro grupo nos jodan. Nuestros antepasados, que vivían en pequeñas bandas de cazadores-recolectores, se preocupaban principalmente por su posición social y por asegurarse de que no eran ellos los que arriesgaban su vida en la cacería, mientras que otros merodeaban por la cueva. Había poca ventaja en razonar con claridad, mientras que mucho se ganaba ganando argumentos.Entre los muchos temas que no preocupaban a nuestros antepasados estaban los efectos disuasorios de la pena capital y los atributos ideales de un bombero. Tampoco tuvieron que lidiar con estudios inventados, noticias falsas o Twitter. No es de extrañar, entonces, que hoy en día la razón nos falle a menudo. Como escriben Mercier y Sperber,"Este es uno de los muchos casos en los que el ambiente cambió demasiado rápido para que la selección natural pueda ponerse al día".

Steven Sloman, profesor de Brown, y Philip Fernbach, profesor de la Universidad de Colorado, son también científicos cognitivos. Ellos también creen que la sociabilidad es la clave de cómo funciona la mente humana o, tal vez de manera más pertinente, de las disfunciones. Comienzan su libro,"La ilusión del conocimiento: por qué nunca pensamos solos" (Riverhead), con una mirada a los baños.Prácticamente todos en los Estados Unidos, y de hecho en todo el mundo desarrollado, están familiarizados con los inodoros. Un inodoro con descarga de agua típico tiene un tazón de cerámica lleno de agua. Cuando la manija está presionada, o el botón presionado, el agua -y todo lo que se ha depositado en ella- es aspirado en una tubería y de ahí al sistema de alcantarillado. ¿Pero cómo sucede esto realmente?En un estudio llevado a cabo en Yale, se pidió a los estudiantes graduados que calificaran su comprensión de los dispositivos cotidianos, incluyendo inodoros, cremalleras y cerraduras de cilindro. 

A continuación, se les pidió que escribieran explicaciones detalladas y paso a paso sobre el funcionamiento de los dispositivos y que volvieran a evaluar su comprensión. Aparentemente, el esfuerzo reveló a los estudiantes su propia ignorancia, porque sus autoevaluaciones disminuyeron. (Los inodoros, resulta que son más complicados de lo que parecen.)Sloman y Fernbach ven este efecto, al que llaman la "ilusión de profundidad explicativa", casi en todas partes. La gente cree que sabe mucho más de lo que realmente sabe. Lo que nos permite persistir en esta creencia es otra gente. En el caso de mi inodoro, otra persona lo diseñó para que yo pudiera manejarlo fácilmente. Esto es algo en lo que los humanos son muy buenos. 

Hemos estado confiando en la experiencia de los demás desde que descubrimos cómo cazar juntos, lo cual probablemente fue un desarrollo clave en nuestra historia evolutiva. Tan bien colaboramos, argumentan Sloman y Fernbach, que difícilmente podemos decir dónde termina nuestra propia comprensión y dónde comienza la de los demás.Una implicación de la naturalidad con la que dividimos el trabajo cognitivo ", escriben, es que" no hay una frontera nítida entre las ideas y el conocimiento de una persona "y" las de otros miembros "del grupo.Esta falta de fronteras, o, si lo prefiere, la confusión, es también crucial para lo que consideramos progreso. 

A medida que la gente inventaba nuevas herramientas para nuevas formas de vida, simultáneamente creaban nuevos reinos de ignorancia; si todos hubiesen insistido en dominar los principios de la metalurgia antes de tomar un cuchillo, la Edad de Bronce no habría sido mucho. Cuando se trata de nuevas tecnologías, la comprensión incompleta es un factor de empoderamiento.Según Sloman y Fernbach, donde nos mete en problemas es en el ámbito político. Una cosa es tirar de la cadena de un inodoro sin saber cómo funciona, y otra cosa es que yo favorezca (o me oponga) a una prohibición de inmigración sin saber de qué estoy hablando. Sloman y Fernbach citan una encuesta realizada en 2014, poco después de que Rusia anexionara el territorio ucraniano de Crimea. A los encuestados se les preguntó cómo pensaban que Estados Unidos debía reaccionar, y también si podían identificar a Ucrania en un mapa. 

Cuanto más alejados de la base estaban de la geografía, más probable era que favorecieran la intervención militar. (Los encuestados estaban tan inseguros de la ubicación de Ucrania que la mediana se equivocó en 1800 millas, aproximadamente la distancia de Kiev a Madrid.Las encuestas sobre muchos otros temas han arrojado resultados igualmente desalentadores. Por regla general, los sentimientos fuertes sobre las cuestiones no surgen de una comprensión profunda ", escriben Sloman y Fernbach. Y aquí nuestra dependencia de otras mentes refuerza el problema. Si su posición sobre, digamos, la Ley de Cuidados Asequibles no tiene fundamento y confío en ella, entonces mi opinión tampoco tiene fundamento. 

Cuando hablo con Tom y él decide que está de acuerdo conmigo, su opinión también es infundada, pero ahora que los tres estamos de acuerdo nos sentimos mucho más orgullosos de nuestras opiniones. Si todos nosotros ahora descartamos como poco convincente cualquier información que contradiga nuestra opinión, usted obtiene, bueno, la Administración Trump.Así es como una comunidad de conocimiento puede convertirse en peligrosa ", observan Sloman y Fernbach. 

Los dos han realizado su propia versión del experimento del inodoro, sustituyendo la política pública por aparatos domésticos. En un estudio realizado en 2012, preguntaron a la gente cuál era su postura en preguntas como: ¿Debería haber un sistema de salud con un solo pagador? ¿O un salario basado en el mérito para los maestros? Se pidió a los participantes que calificaran sus posiciones en función de lo mucho que estuvieran de acuerdo o en desacuerdo con las propuestas. A continuación, se les instruyó que explicaran, con el mayor detalle posible, los impactos de la implementación de cada uno de ellos. La mayoría de la gente se metió en problemas. 

Cuando se les pidió una vez más que calificaran sus puntos de vista, bajaron la intensidad, de modo que estuvieron de acuerdo o no estuvieron de acuerdo con menos vehementemente.Sloman y Fernbach ven en este resultado una pequeña vela para un mundo oscuro. Si nosotros -o nuestros amigos o los expertos en la CNN- pasáramos menos tiempo pontificando y más tratando de trabajar a través de las implicaciones de las propuestas políticas, nos daríamos cuenta de cuán inseguros somos y moderaríamos nuestras opiniones. Esto, escriben,"puede ser la única forma de pensar que haga añicos la ilusión de profundidad explicativa y cambie las actitudes de la gente".

Una forma de ver la ciencia es como un sistema que corrige las inclinaciones naturales de las personas. En un laboratorio bien dirigido, no hay lugar para sesgos místicos; los resultados tienen que ser reproducibles en otros laboratorios, por investigadores que no tienen motivos para confirmarlos. Y esto, podría argumentarse, es por lo que el sistema ha tenido tanto éxito. En cualquier momento dado, un campo puede estar dominado por disputas, pero al final, la metodología prevalece. 

La ciencia avanza, aunque permanezcamos atascados.En "Negando a la tumba: por qué ignoramos los hechos que nos salvarán" (Oxford), Jack Gorman, psiquiatra, y su hija Sara Gorman, especialista en salud pública, exploran la brecha entre lo que nos dice la ciencia y lo que nos decimos a nosotros mismos. Su preocupación es con aquellas creencias persistentes que no sólo son demostrablemente falsas, sino también potencialmente mortíferas, como la convicción de que las vacunas son peligrosas. Por supuesto, lo que es peligroso no es vacunarse; por eso se crearon las vacunas en primer lugar. La inmunización es uno de los triunfos de la medicina moderna ", señalan los gormanos. Pero no importa cuántos estudios científicos concluyan que las vacunas son seguras, y que no hay ninguna relación entre las inmunizaciones y el autismo, los antivaxxers permanecen impasibles. (Pueden ahora contar con su tipo lateral de Donald Trump, quien ha dicho que, aunque él y su esposa habían vacunado a su hijo Barron, se negaron a hacerlo en el horario recomendado por los pediatras.

Los gormanos también argumentan que las formas de pensar que ahora parecen autodestructivas deben haber sido en algún momento adaptables. Y también dedican muchas páginas al sesgo de confirmación, que, según afirman, tiene un componente fisiológico. Citan investigaciones que sugieren que las personas experimentan placer genuino -una fiebre de dopamina- cuando procesan información que apoya sus creencias. Se siente bien' apegarse a nuestras armas' aunque estemos equivocados ", observan.Los Gorman no sólo quieren catalogar las maneras en que nos equivocamos, sino que quieren corregirlas. Debe haber alguna manera, sostienen, de convencer a la gente de que las vacunas son buenas para los niños, y las armas de puño son peligrosas. (Otra creencia generalizada pero estadísticamente insoportable que les gustaría desacreditar es que tener un arma de fuego te hace más seguro). 

Pero aquí se encuentran con los mismos problemas que han enumerado. Proveer a la gente con información precisa no parece ser de ayuda; simplemente la descuentan. Apelar a sus emociones puede funcionar mejor, pero hacerlo es obviamente antitético al objetivo de promover la ciencia sana. "El reto que persiste", escriben hacia el final de su libro,"es averiguar cómo abordar las tendencias que llevan a la falsa creencia científica".El Enigma de la Razón "," La Ilusión del Conocimiento "y" Negando a la Grave "fueron todos escritos antes de las elecciones de noviembre. 

Y sin embargo, anticipan a Kellyanne Conway y el surgimiento de "hechos alternativos"... Hoy en día, se puede sentir como si todo el país hubiera sido cedido a un vasto experimento psicológico dirigido por nadie o por Steve Bannon. Los agentes racionales serían capaces de pensar su camino hacia una solución. Pero, en este asunto, la literatura no es tranquilizadora. 




Publicado originalmente en www.newyorker.com
Traducido por GDA




No hay comentarios:

Publicar un comentario