¿Hay un nombre para la resistencia de un científico a la refutación de sus teorías?

El sesgo de confirmación es la tendencia a buscar o interpretar información de una manera que confirme las propias creencias o hipótesis. Y algunos resultados ilustran que las personas establecen estándares más altos de evidencia para las hipótesis que van en contra de sus expectativas actuales, un efecto que a veces se denomina "sesgo de refutación". Sin embargo, me gustaría saber si hay un nombre específico (y literatura) relacionado con la tendencia entre los científicos a resistirse a la refutación de sus teorías.

Respuestas (3)

Entiendo que el sesgo de confirmación incluye esto. La página de Wikipedia que vincula tiene una sección sobre "persistencia de creencias desacreditadas" que corrobora mi perspectiva:

Los sesgos de confirmación se pueden usar para explicar por qué algunas creencias persisten cuando se elimina la evidencia inicial de ellas. [45] Este efecto de perseverancia en las creencias ha sido demostrado por una serie de experimentos que utilizan lo que se llama el "paradigma del informe": los participantes leen evidencia falsa para una hipótesis, se mide su cambio de actitud y luego se expone la falsificación en detalle. Luego, sus actitudes se miden una vez más para ver si su creencia vuelve a su nivel anterior. [44]

Un hallazgo común es que al menos parte de la creencia inicial permanece incluso después de un informe completo. [46] En un experimento, los participantes tenían que distinguir entre notas de suicidio reales y falsas. La retroalimentación fue aleatoria: a algunos se les dijo que lo habían hecho bien mientras que a otros se les dijo que lo habían hecho mal. Incluso después de haber sido informados por completo, los participantes todavía estaban influenciados por la retroalimentación. Todavía pensaban que eran mejores o peores que el promedio en ese tipo de tarea, dependiendo de lo que les habían dicho inicialmente. [47]

En otro estudio, los participantes leyeron las calificaciones de desempeño laboral de dos bomberos, junto con sus respuestas a una prueba de aversión al riesgo . [44] Estos datos ficticios se organizaron para mostrar una asociación negativa o positiva : a algunos participantes se les dijo que un bombero que tomaba riesgos lo hizo mejor, mientras que a otros se les dijo que lo hicieron menos que un colega reacio al riesgo. [48] ​​Incluso si estos dos estudios de caso fueran ciertos, habrían sido evidencia científicamente pobre para una conclusión sobre los bomberos en general. Sin embargo, los participantes los encontraron subjetivamente persuasivos. [48] ​​Cuando se demostró que los estudios de caso eran ficticios, la creencia de los participantes en un vínculo disminuyó, pero se mantuvo alrededor de la mitad del efecto original.[44] Las entrevistas de seguimiento establecieron que los participantes habían entendido el informe y lo habían tomado en serio. Los participantes parecían confiar en el informe, pero consideraban que la información desacreditada era irrelevante para sus creencias personales. [48]


Referencias
44. Ross, Lee; Anderson, Craig A. (1982), "Deficiencias en el proceso de atribución: sobre los orígenes y el mantenimiento de evaluaciones sociales erróneas", en Kahneman, Daniel; Slovic, Paul; Tversky, Amos, Juicio bajo incertidumbre: Heurística y sesgos, Cambridge University Press, pp. 129–152, ISBN 978-0-521-28414-1, OCLC 7578020
45. Nickerson, Raymond S. (1998), "Confirmation Bias; A Ubiquitous Phenomenon in Many Guises", Review of General Psychology (Educational Publishing Foundation) 2 (2): 175–220, doi: 10.1037/1089-2680.2.2.175 , ISSN 1089-2680 , p. 187 46. Kunda, Ziva (1999), Social Cognition: Making Sense of People, MIT Press, ISBN 978-0-262-61143-5 , OCLC 40618974 , p. 99
47. Ross, Lee; Lepper, Mark R.; Hubbard, Michael (1975), "Perseverancia en la autopercepción y la percepción social: procesos de atribución sesgados en el paradigma del debriefing", Journal of Personality and Social Psychology (Asociación Americana de Psicología) 32 (5): 880–892, doi: 10.1037/ 0022-3514.32.5.880 , ISSN 0022-3514 , PMID 1185517 a través de Kunda 1999, pág. 99
48. Anderson, Craig A.; Lepper, Mark R.; Ross, Lee (1980), "Perseverancia de las teorías sociales: el papel de la explicación en la persistencia de la información desacreditada", Revista de personalidad y psicología social (Asociación Americana de Psicología) 39 (6): 1037–1049, doi: 10.1037/h0077720 , ISSN 0022-3514

Esto no es exactamente lo que está buscando, pero está lo suficientemente cerca como para ayudarlo a encontrar información adicional.

Munro (2010) encontró evidencia de que las personas tienden a descartar la posibilidad científica de estudiar algo cuando se les presenta evidencia científica que va en contra de sus creencias actuales. En otras palabras, si a las personas se les mostraba un resultado que iba en contra de sus creencias, era más probable que las personas concluyeran que no era posible realizar una experimentación científica rigurosa sobre el tema. Llamó a esto la excusa científica de la impotencia . En el experimento, a los sujetos se les mostró un resumen (artificial) que afirmaba que había un vínculo entre la homosexualidad y la enfermedad mental o afirmaba que no había ningún vínculo. Un grupo de control vio los mismos resúmenes, pero en lugar de un vínculo entre la homosexualidad y la enfermedad mental, el vínculo era entre un grupo inventado como Zavs. Después de leer el resumen, se pidió a los sujetos que indicaran si era posible o no investigar tales vínculos con métodos científicos. Si los resultados del resumen eran contradictorios con las creencias previas de un sujeto (medidas por un cuestionario al comienzo del experimento), entonces era más probable que el sujeto dijera que la pregunta no puede investigarse de manera científica.

Este estudio se realizó con estudiantes universitarios, que no son científicos capacitados, por lo que no está claro si el resultado se generalizaría a los científicos o no.

Creo que esto está más relacionado con el efecto de expectativa del observador , en el que los investigadores, al buscar un determinado resultado en un experimento, pueden manipular o interpretar los resultados sin darse cuenta para revelar sus expectativas. Eso es lo que estás buscando, supongo.

¡Bienvenido a CogSci.SE! Cuando sea posible, incluya citas en las que el autor de la pregunta pueda obtener más información sobre la respuesta que está dando.
Podría tener este efecto si uno manipula o ignora los resultados para respaldar una conclusión deseada, pero el OP no se trata explícitamente de investigadores que manejan resultados sin procesar y llegan a sus propias conclusiones sobre ellos. El efecto de expectativa del observador no explicaría (al menos, no directamente) por qué un científico podría ignorar los resultados y conclusiones de otro investigador que contradice las creencias del científico.
bueno, de la pregunta del OP, "resistir la desconfirmación" implica perfectamente el comportamiento del efecto de expectativa del observador, sin embargo, estoy de acuerdo en que ambos términos están bastante vagamente definidos ...