Revisión efectiva en conferencias de informática de primer nivel

La mayoría de las principales conferencias en Ciencias de la Computación reciben una cantidad récord de presentaciones cada año, como AAAI recibió casi 9000 presentaciones este año, mientras que CVPR 2020 recibió 6600 presentaciones. Eso significaría al menos 27000 y 20000 reseñas respectivamente. Eso significaría casi 5000 y 4000 revisores respectivamente, suponiendo 5 artículos por revisor.

También me he encontrado con algunas publicaciones de presidentes de área (de estas conferencias de primer nivel) que expresan su frustración por no recibir las revisiones de los revisores a tiempo y, como resultado, se compromete la calidad de las revisiones. ¿El floreciente aumento de ML/IA está provocando una caída de los estándares? ¿Existe una solución efectiva para esto? ¿Tienen estas conferencias una forma de verificar la calidad de los revisores dado que muchos de ellos son estudiantes de doctorado?

Uno de los criterios mencionados en sus sitios es que el revisor debe tener 1 o 2 publicaciones en conferencias de primer nivel, pero ¿es eso suficiente? Por ejemplo, tengo 3 o 4 publicaciones (no en conferencias/revistas de alto nivel), pero no creo que pueda proporcionar revisiones efectivas de los artículos enviados a esas conferencias/revistas en particular. ¿Hay algún criterio adicional también?

¿Que estas preguntando? "¿Hay una solución"? "¿Las conferencias revisan a los revisores"? ¿O quieres ser un revisor? O "¿Eres lo suficientemente bueno"?
Estoy preguntando si hay un compromiso sobre el nivel de las revisiones o no. Si lo hay, por el número, ¿hay alguna solución? ¿Las conferencias tienen una forma de verificar la calidad de los revisores? Di mi ejemplo para mostrar mi insuficiencia, al revisar artículos en los que he publicado trabajos anteriormente. He editado la última parte para que quede más claro.
Comprobación de un marco: la disminución de la calidad de las revisiones no es necesariamente lo mismo que la disminución de la calidad de los trabajos aceptados. Además, tanto la media como la varianza son relevantes aquí.
Creo que quiere decir que los principales periódicos pasarán de todos modos. Eso puede ser cierto, pero una buena cantidad de artículos estarían al margen ( blog.mrtz.org/2014/12/15/the-nips-experiment.html ), y podrían ir en cualquier dirección dependiendo de las revisiones. Además, los artículos prometedores que no pudieron pasar el corte realmente no tienen la oportunidad de mejorar. Los rechazos/críticas constructivas pueden ayudar mucho a mejorar la calidad de la investigación.

Respuestas (1)

Evidencia anecdótica: IEEE ICDM solía exigir que todos los revisores tuvieran títulos de doctores, por lo que no había estudiantes de doctorado en el Comité del Programa. Luego, en un año en particular, se pidió a todos los miembros del PC que revisaran 17 documentos (en lugar del tamaño de lote prometido y habitual en ICDM, de 8 a 10 documentos), en un período de revisión de 16 días (incluidos los fines de semana). Eso tampoco condujo a revisiones de alta calidad y, como daño adicional por las consecuencias, varios miembros del PC rechazaron la invitación para el ICDM del próximo año, lo que amplificó el problema.


No conozco ninguna solución razonable desde el punto de vista de los organizadores de la conferencia:

  • Si aplicamos criterios a los revisores, habrá menos revisores disponibles, por lo que cada uno de los revisores disponibles debe hacer más trabajo, lo que reduce su disponibilidad para otras conferencias.
  • Este año, IJCAI solicitó a sus presidentes de área que rechazaran los documentos de manera bastante agresiva: aproximadamente la mitad de todos los documentos fueron filtrados antes de que comenzara la revisión. Esto disminuye la carga de los miembros del PC, pero aumenta la carga de los presidentes de área, e inevitablemente aumentará la variación ya inaceptablemente alta inherente al proceso de revisión: no todos los trabajos rechazados en la mesa habrán merecido ser rechazados en la mesa, lo cual es muy injusto en esos autores.
  • ICLR abre la revisión, lo que significa que las revisiones y las identidades de los revisores se publican en Internet. Dado que las personas saben que su nombre estará disponible junto con la reseña que escribieron, solo aquellas personas que saben que pueden invertir una cantidad considerable de tiempo aceptarán una invitación a reseñar. Esto significa que el grupo de revisores será más pequeño, lo que aumenta la carga de los miembros individuales de PC...
  • Si una conferencia fuera a monitorear el desempeño de los revisores, y de alguna manera* lograra evaluar la calidad de las revisiones, ¿entonces qué? Supongamos que los miembros del PC hacen un mal trabajo. ¿Los echas? Entonces tenemos incluso menos miembros del PC para completar el trabajo el próximo año, aumentando la carga de los otros miembros del PC...

* ¿Cómo haríamos esto, sin embargo? ¿Deberían los presidentes de área evaluar esto? Eso aumentaría enormemente la carga de trabajo de los coordinadores de área, lo que probablemente no sea una buena idea dados los problemas de sobrecarga que se describen en el resto de esta publicación.


Como científico que intenta publicar artículos, veo dos soluciones sobre cómo abordar el problema:

  1. Sé duro cuando recibas las reseñas de las conferencias y confía en que, a la larga, la preferencia por los buenos artículos superará la variación en las decisiones de las conferencias individuales.
  2. En su lugar, envíe su trabajo a una revista; si sus artículos reciben una mala crítica injusta para una revista, al menos puede discutirlo con el editor.
¿Las identidades de los revisores son públicas en ICLR? ¿No son sólo públicas las identidades de los autores? (Por ejemplo, un ejemplo aleatorio : no veo los nombres de los revisores, ¿o me estoy perdiendo algo?)
¿Funcionará poner un límite en el número de papeles? Por ejemplo, una persona puede estar en la lista de autores de 10 artículos como máximo. ¿Sería esto justo?
@Jihadi Algunas conferencias ya lo hacen. Por ejemplo, IJCAI 2020 ha puesto un límite superior de 6 envíos por autor. Esto es menos que 10 en IJCAI 2019 . Incluso entonces recibieron más de 4700 presentaciones.
¿@GoodDeeds lo restringe aún más? Pero supongo que los mejores investigadores pueden obtener el final del palo. Por la forma en que va el sistema, un día todo se va a estrellar sobre nuestras cabezas.