Proceso de revisión abierto versus ciego

Una pregunta que me he estado haciendo durante un tiempo es si existe una prueba real de que un proceso de revisión a ciegas (es decir, donde los revisores son anónimos y las revisiones no se publican) es mejor que uno abierto (es decir, donde los revisores no son anónimos y /o las reseñas se publican junto con los trabajos aceptados).

Básicamente, cada vez que cuestiono el hecho de que tener un proceso de revisión a ciegas no garantiza ninguna calidad (que, de alguna manera, suele coincidir con recibir una mala revisión de un trabajo...), me dicen que el anonimato es crucial para el proceso de revisión. . Pero, ¿hay alguna prueba de eso? No creo que exista ningún sistema perfecto, pero no estoy seguro de por qué el ciego (o incluso el doble ciego) se considera el mejor (o el "menos peor").

"Mejor"? ¿Qué significa "mejor"?
@JeffE: buena pregunta, diría que mejorar la calidad, a corto y largo plazo, de la producción científica.
Una pregunta interesante, especialmente dado que publicar y comentar en AcademicSE no son ciegos, mientras que los votos positivos y negativos sí lo son.
Pregunta relacionada sobre por qué tales revisiones son necesarias: academia.stackexchange.com/questions/101400/…

Respuestas (6)

El estudio de 2008 titulado Peer Review in Scholarly Journals - Perspective of the Scholarly Community: An International Study tuvo como objetivo "medir las actitudes y el comportamiento de la comunidad académica con respecto a la revisión por pares". Algunas citas del resumen :

Se prefirió la revisión doble ciego. Aunque la experiencia normal de los investigadores en la mayoría de los campos era la revisión simple ciego, cuando se les preguntó cuál era su opción preferida, hubo una preferencia por la revisión doble ciego, con un 56 % seleccionando esto, seguido por un 25 % por el simple ciego, 13 % para revisión abierta y 5% para revisión posterior a la publicación. La revisión abierta por pares fue un desaliento activo para muchos revisores, con un 49 % que dijo que revelar su nombre al autor los haría menos propensos a revisar.

y

La revisión doble ciego se consideró la más eficaz. La revisión doble ciego tuvo la mayoría de los encuestados (71 %) que la percibieron como eficaz, seguida (en orden decreciente) por la revisión simple ciego (52 %), posterior a la publicación (37 %) y la revisión abierta por pares (27 %).

Un artículo de 2008 en Nature (y una corrección ) analiza el estudio anterior, pero el artículo trata sobre la revisión doble ciego versus la revisión simple ciego, y no sobre la revisión ciega versus la revisión abierta.

Este artículo parece bueno, pero parece abordar el problema de la revisión ciega frente al doble ciego, que es un poco diferente de la revisión ciega frente a la abierta. (De hecho, no puedo acceder al enlace en este momento, nature.com no responde, así que intentaré leerlo más tarde).
También puede visitar nature.com/nature/peerreview/index.html . Según la fuente mencionada en mi comentario anterior, "Durante 2006, la revista Nature llevó a cabo una prueba de revisión abierta por pares; no fue un éxito; a pesar del interés en la prueba, solo una pequeña proporción de autores optó por participar, y solo un se recibieron pocos comentarios, muchos de los cuales no eran sustantivos. Los comentarios sugirieron que "hay una marcada renuencia entre los investigadores a ofrecer comentarios abiertos".
Gracias, el segundo enlace (publishresearch.net) responde a la pregunta que me interesa. ¿Podría reformular su respuesta para incluirla?
Además, señalaré que no prueban que la revisión abierta disminuya la calidad, sino que los revisores son más reacios a revisar cuando está abierta. En primer lugar, si tuviéramos un modelo en el que se pagara a los revisores por revisar, también serían reacios a hacerlo de forma gratuita, pero eso no significa que el modelo gratuito sea peor. En segundo lugar, estaría realmente interesado en saber cómo cambia esta actitud en relación con la generación de investigadores posterior o anterior a Internet.
Edité mi respuesta dos veces para incorporar sus dos comentarios anteriores. También eliminé mis dos comentarios anteriores porque transfirí su contenido a mi respuesta. Le sugiero que no borre sus comentarios, ya que deja un registro de su "revisión abierta" de mi "artículo". :)
Gracias por la edición, acepto la respuesta porque creo que es lo más "objetivo" que puedo obtener :) Pero mantengo mi comentario de que no se muestra que la revisión abierta disminuya la calidad en sí misma, sino solo que la gente es reacia (pero también reconocer que sería muy difícil medir la diferencia de calidad).
Esto responde a la pregunta "¿ Prefieren los autores la revisión ciega a la revisión abierta?" Pero la pregunta original preguntaba si la revisión ciega es realmente mejor que la revisión abierta: ¿hay evidencia publicada de que la revisión ciega en realidad conduce a publicaciones de mayor calidad?
@JeffE, con respecto a tu primera oración, tienes razón. Esto ya fue señalado dos veces por Charles Morisset. En cuanto a su segunda oración, actualmente no conozco ninguna.

Lo curioso es que en este tema, la mayoría de la gente menciona inmediatamente el lado de la "honestidad" del problema, no el lado de la "calidad". Para esto último, creo que no se trata de revisiones ciegas/abiertas, que es la cuestión pertinente, sino de la cuestión público/privado. Si las reseñas son siempre públicas, supongo que la calidad aumentará, porque el presidente/editor en jefe general presionará de esa manera para garantizar que su conferencia/revista tenga una excelente reputación. Personalmente, no quiero/necesito saber quién está revisando mis documentos, pero quiero Y necesito revisiones de calidad, y son inusuales en estos días. Todos sabemos por qué: demasiados artículos, demasiadas revisiones que hacer, poco tiempo...

Ese es un muy buen punto, y podría ser una solución efectiva. Además, a menudo hay información valiosa en una revisión (como un posible trabajo relacionado o diferentes interpretaciones) que podría ser útil para el lector.
Otra configuración potencial que esto trae a colación es que los revisores podrían estar cegados a los autores (para evitar la deshonestidad, el sesgo de género) desde el principio, pero no tiene por qué ser al revés. ¡Esencialmente ciego simple, pero de la manera opuesta se hace tradicionalmente!

Cuanto más se revela sobre la identidad de los autores y revisores, menos honesto puede ser el proceso de revisión. Tal apertura puede favorecer a los científicos ya establecidos sobre los recién llegados.

En el mundo ideal, un revisor plantearía las mismas preocupaciones al revisar los artículos de un ganador del premio Nobel o de un estudiante universitario. Pero como las personas incluso temen hacer preguntas posiblemente tontas en público, me sorprendería mucho si pudieran aplicar el mismo escrutinio independientemente de a quién estén revisando.

Incluso con el proceso ciego (simple) estándar, escuché que un científico ya famoso envió artículos con nombres inventados para recibir revisiones honestas (simplemente no recuerdo quién).

Un ejemplo de Herbert S. Wilf en un discurso de cumpleaños de Donald E. Knuth (señalado por Joel Reyes Noche):

En la década de 1980, en los primeros días del Journal of Algorithms, yo era editor en jefe, y Don [Donald Knuth] me envió un artículo, escrito por él mismo bajo el seudónimo de Ursula N. Owens, aparentemente de algún pequeña universidad en un pequeño pueblo inexistente en Kansas. La razón era que él realmente quería obtener un informe del árbitro duro y sustantivo en el papel, y se había dado cuenta de que a veces los árbitros se habían quitado los golpes debido a su nombre en la parte superior de un papel .

El proceso de doble ciego puede ser aún más beneficioso, pero al mismo tiempo ilusorio (como el tema, las referencias y el estilo pueden revelar al autor). Además, la identidad del autor a veces puede ser beneficiosa (por ejemplo, para comparar si la nueva presentación tiene algo nuevo).

Nada de eso es una prueba.

Pero en lugar de contar las líneas de reseñas, se puede intentar comparar qué tan suave (o duro) se trata a los colaboradores, según su estado (título académico, nombre de la universidad, fama/reconocibilidad).

Entiendo la intuición detrás de "cuanto más se revela...", pero al mismo tiempo, brindar anonimato a los revisores permite que algunas personas escriban críticas negativas (es decir, no leer los periódicos, hacer comentarios descuidados, etc.), y yo Me gustaría entender si los argumentos a favor del anonimato superan a los contras.
Sí, soy consciente de que firmar con el propio nombre es bueno para la calidad. Sin embargo, para la revisión el sesgo y la calidad son dos factores diferentes. Y es muy probable que ajustando el nivel de 'ceguera' uno pueda cambiar la imparcialidad por la calidad. Entonces, el problema puede ser más difícil que solo la optimización de un parámetro.
No digo que sea un problema fácil :) Pero simplemente no me gusta el argumento "la ceguera es buena, porque de lo contrario podría haber un sesgo. ¿Por qué? Porque". Como científico, quiero pruebas contundentes, no solo intuición :)
Según un comentario en mathoverflow.net/questions/45185/… , "Donald Knuth usó el seudónimo de Ursula N. Owens cuando envió un artículo para obtener revisiones más honestas. (Como lo describe Wilf en la página 3 de math.upenn.edu/ ~wilf/website/dek.pdf )"

Uno de los argumentos más convincentes que he escuchado a favor de la revisión a ciegas es que evita que las personas cuyo trabajo ha sido rechazado se "venguen" del revisor (consciente o inconscientemente). Considere, por ejemplo, un académico senior que tiene un artículo rechazado debido a la revisión de un académico junior. Sería bastante fácil para el académico senior obstaculizar el progreso del junior.

Esto es similar al punto que planteó Piotr acerca de que es un proceso más "honesto".

Sin embargo, no conozco ningún ejemplo específico de esto.

Sí, y considere el caso de un académico senior que elimina una presentación con una mala revisión porque no tiene tiempo o, lo que es peor, porque la presentación proviene de concurrentes (el doble ciego no es tan eficiente), y quién sabe eso. nadie en la PC se quejará de su mala revisión porque es senior. ¿Cómo es eso mejor?
Para que quede claro, no estoy afirmando que el caso que describí sea mejor o peor. Simplemente no lo sé. Entiendo los argumentos por los que la revisión ciega es buena , me gustaría entender por qué es la mejor .
Yo diría que este problema no se resolvería con revisiones abiertas. Si tiene la experiencia suficiente para no preocuparse por la opinión de los principales expertos en su campo (es decir, los miembros del PC), probablemente tampoco le importe la opinión de otras personas.
Ese es un buen punto, pero creo que es un poco diferente estar en una situación en la que solo el presidente del PC sabe que su revisión no es buena, y es posible que ni siquiera se dé cuenta, y criticar públicamente un artículo, especialmente cuando son concurrentes.
Entiendo tu argumento. En su comentario anterior, no digo que la revisión a ciegas sea el mejor proceso y creo que un número cada vez mayor de personas también son de esa opinión. Ciertamente estaría feliz con un proceso de revisión abierto.
@Charles: En mi experiencia, la mayoría de las PC tienen más agallas que eso. Los miembros del PC no siempre notan cuando una reseña es mala, pero cuando lo hacen, se quejan sin importar qué tan alto/famoso sea el revisor.

No tengo ninguna prueba de ninguna manera, pero para un punto de datos, puede consultar el taller de HotNets .

En varios de los primeros talleres, el comité del programa publicó reseñas públicas de los documentos. Durante el proceso de revisión, los miembros del comité del programa escribieron revisiones ciegas, como es el proceso habitual (los revisores eran anónimos). Pero también, para cada documento publicado, un miembro del comité del programa escribió una nueva revisión destinada al consumo público que resume la opinión del comité del programa sobre el documento. Muchas de las revisiones públicas fueron bastante francas, tanto en la identificación de reservas sobre el documento como en los aspectos del documento que disfrutó el comité del programa.

No creo que HotNets siga haciendo eso, pero podría intentar investigar más sobre cuál fue la experiencia de la comunidad de HotNets con las reseñas públicas (¿públicas? ¿Negativas?). También creo que ha habido algunos otros talleres y conferencias de informática que también han escrito reseñas públicas, por lo que también podría verlos.

Sólo puedo compartir algo de mi experiencia.

Una vez, un amigo recibió una solicitud de revisión de un artículo de una revista importante. Su jefe lo sabía y le pidió que lo rechazara porque los autores estaban haciendo lo que él y su jefe estaban haciendo.