lunes, 16 de marzo de 2026

¿Qué mecanismos operan en quien siempre quiere tener la razón?

Two people behind a paper map and pointing in opposite directions against a blue sky.
Getty Images

Puede haber una razón psicológica por la que algunas personas no sólo se equivocan en una discusión, sino que se equivocan con seguridad.

Esas personas creen que tiene toda la información necesaria para formarse una opinión, incluso cuando no es así, según un estudio publicado en la revista Plos One.

“Nuestros cerebros tienen un exceso de confianza en que pueden llegar a una conclusión razonable con muy poca información”, afirmó Angus Fletcher, profesor de inglés de la Universidad Estatal de Ohio, coautor del estudio.

Fletcher, junto con dos investigadores de psicología, se propusieron medir cómo la gente emite juicios sobre situaciones o personas basándose en su confianza en la información que tienen, aunque no tengan todos los datos.

“La gente emite juicios muy rápidamente”, agregó.

Los investigadores reclutaron a casi 1,300 personas con un promedio de edad de unos 40 años. Todos leyeron una historia ficticia sobre un colegio que se quedaba sin agua porque su acuífero local se estaba secando.

Unas 500 personas leyeron una versión de la historia que estaba a favor de que el colegio se fusionara con otro, presentando tres argumentos a favor del traslado y un punto neutral.

Otras 500 personas leyeron una historia con tres argumentos a favor de permanecer separados, más el mismo punto neutro.

Las últimas 300 personas, el grupo de control, leyeron una historia equilibrada que incluía los siete argumentos: tres a favor de la fusión, tres a favor de la separación y uno neutral.

Tras la lectura, los investigadores preguntaron a los participantes su opinión sobre lo que debería hacer la escuela y hasta qué punto confiaban en tener toda la información necesaria para emitir ese juicio.

Las encuestas revelaron que era mucho más probable que la mayoría de las personas estuvieran de acuerdo con el argumento –a favor de la fusión o de permanecer separados– que habían leído, y que a menudo confiaban en tener suficiente información para tener esa opinión. Los participantes de los grupos que sólo habían leído un punto de vista también eran más propensos a decir que estaban más seguros de su opinión que los del grupo de control que había leído ambos argumentos.

A continuación, se pidió a la mitad de los participantes de cada grupo que leyeran la información de la parte contraria, que contradecía el artículo que ya habían leído.

Aunque las personas se mostraban seguras de sus opiniones cuando sólo habían leído argumentos a favor de una solución, cuando se les presentaban todos los hechos, solían estar dispuestas a cambiar de opinión. También señalaron que entonces confiaban menos en su capacidad para formarse una opinión sobre el tema.

“Pensábamos que la gente se aferraría a sus juicios originales aunque recibiera información que los contradijera, pero resulta que si se enteraban de algo que les parecía plausible, estaban dispuestos a cambiar totalmente de opinión”, dijo Fletcher, y añadió que la investigación pone de relieve la idea de que la gente no contempla si tiene toda la información sobre una situación.

Sin embargo, los investigadores señalaron que los resultados podrían no aplicarse a situaciones en las que la gente tiene ideas preestablecidas sobre una situación, como suele ocurrir en política.

“La gente tiene una mentalidad más abierta y está más dispuesta a cambiar de opinión de lo que suponemos”, aseveró Fletcher. Sin embargo, “esta misma flexibilidad no se aplica a las diferencias mantenidas durante mucho tiempo, como las creencias políticas”.

Todd Rogers, científico del comportamiento de la Harvard Kennedy School of Government, comparó los resultados con el estudio del “gorila invisible”, que ilustraba el fenómeno psicológico de la “ceguera por falta de atención”, cuando una persona no se da cuenta de algo obvio porque está concentrada en otra cosa.

“Este estudio capta eso con la información”, comentó Rogers. “Parece haber una tendencia cognitiva a no darnos cuenta de que la información que tenemos es inadecuada”.

El estudio es paralelo a un fenómeno psicológico denominado “ilusión de profundidad explicativa”, en el que las personas subestiman lo que saben sobre un tema determinado, de acuerdo con Barry Schwartz, psicólogo y profesor emérito de Teoría Social y Acción Social en el Swarthmore College de Pennsylvania.

La idea es que si se pregunta a una persona normal si sabe cómo funciona un retrete, probablemente responderá que sí. Pero si se le pide que explique cómo funciona un retrete, enseguida se da cuenta de que no sabe cómo funciona, sino cómo hacerlo funcionar pulsando una palanca.

“No es sólo que la gente se equivoque. El problema es que confían demasiado en su error”, comentó Schwartz.

El antídoto, añadió, es “ser curioso y humilde”.

Los investigadores y Schwartz coincidieron en que el hecho de que las personas del estudio a las que posteriormente se les presentaba nueva información estuvieran abiertas a cambiar de opinión, siempre que la nueva información pareciera plausible, era alentador y sorprendente.

“Es una razón para ser un poco optimistas: aunque la gente crea que sabe algo, está dispuesta a cambiar de opinión con nuevas pruebas”, mencionó Schwartz.


Bibliografía