Los miembros de mi equipo y yo trabajamos en un documento de aprendizaje automático para predecir el aprobado y el reprobado en una prueba académica estándar. El artículo fue enviado a una revista de renombre. La primera revisión volvió con mucho ánimo pero con algunas sugerencias que nos hicieron cambiar la metodología de nuestro trabajo, especialmente con respecto a los datos: el preprocesamiento. Se realizaron los cambios y se volvió a enviar el manuscrito revisado. Sin embargo, una cosa que debería haberse debatido antes de enviarlos fue la precisión de los resultados, que fue del 100 % para múltiples métricas de evaluación en cada uno de los pliegues estratificados. Si bien la inquietud se planteó dentro de nuestro equipo, finalmente la presentamos sin asegurarnos rigurosamente de si todo estaba bien o no.
Ahora los comentarios del revisor han regresado y ha desafiado la credibilidad de nuestro trabajo, señalando específicamente que el 100% de precisión parece demasiado bueno para ser verdad. Volvimos a ejecutar los modelos para evaluar cómo se comporta y descubrimos que los resultados son bastante diferentes y no se acercan al 100 %. Hemos revisado todo el código y los pasos que tomamos para lograr los resultados, pero no podemos encontrar ninguna falla o error que pueda haber resultado en un 100% de precisión.
Los resultados actuales, que oscilan entre el 65 y el 80 % entre pliegues, parecen mucho más creíbles. Sin embargo, no estoy seguro de cómo responder al revisor, especialmente cuando no podemos encontrar nuestro error que resultó en el 100% de precisión. Queremos ser absolutamente honestos y queremos reconocer que cometimos un error al enviar el 100 % de precisión y que deberíamos haber sido más críticos con nuestro trabajo.
Mientras que como grupo queremos ser absolutamente transparentes con todos los archivos de datos y resultados que hemos obtenido y compartirlo con el revisor. Pero me preocupa un poco cómo percibiría el revisor una diferencia tan grande en los resultados que cambian la conclusión o al menos la interpretación.
¿Deberíamos enviar nuestras respuestas y revisar el manuscrito o retirar el documento?
Cualquier ayuda sería apreciada.
Le sugiero que retire su envío hasta que pueda averiguar qué está pasando. La buena ciencia debería ser reproducible, y esto no lo es. No criticó adecuadamente sus propios resultados y presentó un resultado que parecía "verse bien". Ahora ha cambiado parte de su metodología de modelado y ha obtenido otro conjunto de resultados que "se ven bien", aunque no puede articular ninguna razón teórica o práctica por la cual este conjunto de resultados es más sólido que el anterior. El primer resultado no pasó la "prueba del olfato" de un rendimiento razonable, y usted se disparó en el pie al no investigar. Ahora tiene un resultado que pasa la "prueba del olfato", pero el revisor es consciente de que su diligencia en la autocrítica es algo deficiente.
Básicamente, le está diciendo al revisor que "el último resultado fue un error, pero este no lo es, aunque no podemos explicar ninguna diferencia entre los dos". Es una gran petición para que el revisor confíe en su metodología actualizada, si usted mismo no puede explicar por qué es más correcta que lo que hizo la primera vez.
Definitivamente debe retirar o revisar el manuscrito de una manera que explique lo que hizo mal anteriormente, lo que ha cambiado y cuáles son sus nuevos resultados. Incluso si pasa las revisiones y se publica, alguien lo cuestionará y su credibilidad se verá afectada. 100% es bastante cuestionable para ser justos, lo que sugiere en gran medida que sus datos de entrenamiento y prueba son demasiado similares/sobreajustados/que hay una fuga de datos, etc., lo cual es un error muy fundamental. Nadie te criticará por corregir tu error, aunque te sientas avergonzado.
Una vez estuve en un grupo y un compañero de laboratorio dijo que solucionaron el problema que teníamos con el sobreajuste sin revelar sus ediciones en detalle y nuestro líder de laboratorio insistió en que completáramos los experimentos, escribiésemos el artículo y lo enviáramos a pesar de mis sospechas y mi franqueza clara al respecto. . Incluso fue malo conmigo al respecto cuando cuestioné la solución mágica del compañero de laboratorio. Más tarde, finalmente, por casualidad, descubrimos que el compañero de laboratorio cambió el código para usar datos de entrenamiento como datos de prueba, por lo que estaba entrenando con los mismos datos y probándolos también (obtuvimos una precisión del 96% -98% incluso entonces, esto es explicable en redes neuronales). Ya había dejado el trabajo cuando su contrato estaba por terminar, y claramente esto no fue un error. Encontramos esto después de que escribimos todo el artículo al respecto y pasé mucho tiempo en ello, pero estaba ALEGRÍA de haberlo encontrado después de todo,
Tiene un papel que usted mismo describe como defectuoso. Te sugiero que lo arregles antes de seguir adelante. Tal vez haya tiempo para hacerlo sin retirarlo, pero si lo empuja hacia adelante, es probable que solo tenga malos resultados. Una "respuesta" en lugar de una corrección, probablemente no sea suficiente.
La revista podría rechazarlo. Pero si lo publican, los lectores podrían cuestionar sus métodos.
Si tiene tiempo para arreglarlo mientras permanece en el proceso de publicación, hágalo, pero de lo contrario, probablemente sea mejor retirarlo hasta que pueda encontrar los errores.
Simplemente diga que ha vuelto a ejecutar los experimentos y ha cometido un error. Si el papel es rechazado depende de otras partes del papel. Su problema o solución podría ser novedoso y, por lo tanto, su solución es el mejor resultado hasta el momento. En ese caso, 60%-80% está bien. De hecho, esto podría dar lugar a muchos trabajos de seguimiento, es decir, citas, si su problema es interesante. Sin embargo, si hay una mejor solución, entonces no hay nada que publicar.
Seducir
saad
usuario2705196
saad