¿Qué debe hacer si no puede reproducir los resultados publicados?

Estoy tratando de reproducir los resultados publicados en un documento. Esos resultados provienen de simulaciones numéricas. Los autores originales y yo no usamos el mismo software, y el suyo es propietario (no tengo acceso a él). He intentado reproducir sus resultados y funciona cualitativamente pero no cuantitativamente: las diferencias entre sus resultados y los míos en cantidades típicas de interés son entre 2 y 5 veces la precisión esperada del método.

Hasta ahora, me he comunicado con los autores originales, tratando de eliminar todas las posibles fuentes de error que se me ocurrieron (verifiqué que tenía bien las partes difíciles de los algoritmos, verifiqué que los parámetros "habituales" que faltaban en su artículo tenía los valores "usuales", todo lo que se me ocurrió). Son lo suficientemente comunicativos y responden a mis preguntas rápidamente, pero está claro que no quieren invertir tiempo en hacer un seguimiento serio de su parte. Y sin acceso a su software, parece que estoy atascado.

Ahora, mi pregunta es sobre cómo proceder. El “caso ideal” de resultados no reproducibles es hacer un análisis detallado de cómo y por qué no se pueden reproducir, y posiblemente encontrar una fuente de falla (o al menos problemas plausibles). Esto avanza en el campo y probablemente sea publicable (no en una revista de muy alto perfil). Aquí, esto no es posible.

Sin embargo, tengo buenos resultados que he obtenido (extendiendo su trabajo mucho más allá de lo que ya estaba publicado), y si no tuviera estas diferencias con su artículo, sería un artículo muy atractivo. ¿Qué puedo hacer con esos? ¿Es posible publicarlos, simplemente anotando los diferentes con su papel sin más comentarios? ¿O mis resultados simplemente no se pueden publicar? ¡Agradezco cualquier comentario, especialmente de personas que se han encontrado en una situación tan incómoda!

Mencionas otro software. ¿Cuánta diferencia entre las plataformas de hardware?
@scaaahu no lo sé, probablemente no me importe :) Los algoritmos son robustos, puedo ejecutar mis propias simulaciones en varios hardware con solo pequeñas diferencias (100 ulp, como máximo...). Las diferencias que observo actualmente son del orden del 1-5%.
Ese fue mi valor de 2 centavos.
Diferentes softwares pueden significar diferentes opciones técnicas que impactan en la precisión, como la representación de números reales y cosas relacionadas. ¿Revisaste esos problemas?
¿Vas a hacer que tu código esté disponible gratuitamente?
¿Puedes comparar los resultados del modelo con las medidas?
@Nicholas no es mi código, pero es de código abierto. Puedo hacer que mis archivos de entrada (parámetros completos, etc.) estén disponibles como material complementario con el artículo...
@F'x Genial, por lo que su código está disponible gratuitamente y puede publicar (o al menos poner a disposición) sus parámetros de entrada. Los trabajadores interesados ​​en el campo pueden luego replicar sus resultados fácilmente y, con suerte, confirmarlos si lo desean. No se puede decir necesariamente lo mismo de los autores del artículo original debido a la naturaleza propietaria de su software. He agregado mi voto a la respuesta de EnergyNumbers. Publicar.
He estado en una situación muy similar. La diferencia es que, en mi caso, el código de los demás era un enfoque diferente al mismo problema que el mío con el que un revisor me pidió que lo comparara. Los otros autores no habían publicado su código fuente, así que tuve que implementar su método desde cero. Pasé tres meses trabajando en cuatro intentos diferentes para implementar su método, pero no pude hacerlo funcionar. Al final, publiqué mi propio método sin comparación con el otro porque pude convencer al editor de que había hecho un gran esfuerzo para tratar de reproducir sus resultados.

Respuestas (8)

Solo publica. Publique sus intentos de replicar los hallazgos, documentando las discrepancias, junto con los buenos resultados que ha obtenido al ampliar su trabajo. Considere enviar un borrador a los autores originales para sus comentarios.

Si yo fuera el editor de la revista o la conferencia a la que se envió esto, casi con certeza invitaría a uno de los autores del trabajo original para una revisión ciega formal.
@ChrisGregg ¿No habría un conflicto de intereses para el revisor?

Publicar resultados que contradicen publicaciones anteriores puede ser incómodo, pero si puede demostrar que su método es correcto más allá de toda duda razonable, entonces no debería ser un problema. No se garantiza que ningún código esté completamente libre de errores y que ningún resultado sea correcto solo porque se publica.

No dice mucho sobre la naturaleza de sus cálculos/métodos, pero ¿tiene algún caso de prueba para el cual se conocen o se pueden derivar soluciones analíticas? Si puede demostrar que su código reproduce estos resultados, entonces puede argumentar que los resultados de su código para el problema específico en cuestión deberían ser confiables.

Idealmente, si tiene un caso de prueba de este tipo, puede pedir a los otros autores que lo ejecuten con su propio código y ver si también producen resultados correctos. Puede que no quieran, pero ese es su problema, no el tuyo.

En resumen, si hace todo lo posible en su trabajo para demostrar la precisión de su código/método frente a soluciones analíticas conocidas, no debería preocuparse demasiado por no coincidir con los resultados de otras personas. Al menos esa sería mi opinión como árbitro.

Contraste "si puede demostrar que su método es 100% correcto, entonces no debería ser un problema" y "no se garantiza que ningún código esté completamente libre de errores". No hay forma de que pueda probar que mi método no tiene errores.
@F'x: Buen punto, modifiqué mi respuesta en consecuencia :) Lo que quise decir es mostrar que es correcto más allá de toda duda razonable.
@F'x Esto es un poco pedante, pero se puede demostrar que el código es correcto, aunque es raro y generalmente ocurre en pequeña escala.
@PeterOlson, su comentario pide la famosa cita de Donald Knuth: Tenga cuidado con los errores en el código anterior; Solo he probado que es correcto, no lo he probado. ;)
@Pedro Excelente idea sobre la evaluación comparativa, que es realmente una de las mejores formas de validar la precisión de un método. Es realmente sorprendente la frecuencia con la que los investigadores evitamos este paso crítico, pensando que tenemos todo en orden cuando no es así.

(Descargo de responsabilidad: no tengo experiencia personal con una situación así, así que me estoy saliendo del sentido común. Dicho esto...)

Parece que ya ha dado todos los pasos razonables para descubrir el origen de la discrepancia, y ahora solo le queda una "desviación inexplicable" entre sus resultados y los de ellos. También dice que la discrepancia en realidad no afecta de ninguna manera las conclusiones cualitativas extraídas de los resultados.

En este punto, si yo fuera usted, simplemente seguiría adelante y publicaría sus resultados extendidos, y solo señalaría brevemente la discrepancia cuando compare sus resultados con el trabajo anterior. Siempre que esté razonablemente seguro de que sus resultados son correctos (hasta los límites esperados de precisión numérica), no se puede esperar que pueda explicar las imprecisiones en los resultados de otras personas. Por supuesto, definitivamente debe asegurarse de que otros puedan reproducir fácilmente sus resultados y verificar la corrección de los métodos que usó para obtenerlos, por ejemplo, haciendo que su software esté disponible gratuitamente.

Si realmente cree que simplemente documentar la discrepancia entre los dos conjuntos de resultados sería publicable por sí solo, hacerlo y luego citar esa publicación en su artículo principal también podría ser una opción. En general, sin embargo, espero que sea práctico solo si los valores cuantitativos precisos en disputa son realmente importantes para otros que trabajan en su campo.

Sería muy cauteloso a la hora de publicar y, como revisor, sería cauteloso a la hora de recomendar la publicación. La diferencia inexplicable en los resultados insinúa un error. Ese error es tuyo o de ellos. Me gustaría saber con certeza que es su error antes de publicar. Aunque no puede comparar los dos métodos directamente, aún podría publicar su método de forma independiente mostrando que da la respuesta "correcta" en una batería de casos de prueba y luego notando que da una respuesta diferente en el caso no comprobable.

Luego, puede consultar este documento cuando publique el trabajo real. La ventaja es que elimina la necesidad de diluir el mensaje del artículo real con los detalles del método. Una segunda ventaja es que puede resultar en que los autores originales ejecuten la prueba con su método. Esto es especialmente cierto si los menciona en un borrador anterior y les envía una copia antes de enviarlos. También puede solicitarlos como revisores.

Una estrategia diferente podría ser una visita al laboratorio (físico o virtual) para usar su software en su batería de prueba.

El software es diferente, pero se supone que el método es el mismo.
"La diferencia inexplicable en los resultados sugiere un error". Sí, lo hace. Pero no proporciona ningún identificador particular sobre qué parte lo hizo. F'x no nos ha proporcionado ninguna razón particular por la que la publicación anterior pueda tomarse como un evangelio. Una pregunta importante aquí es "¿Lo han reproducido otros?" .
Cualquier preocupación de que @F'x sea el que comete el error podría suavizarse si F'x hace que su código esté disponible públicamente.
Me gusta la idea de darles la oportunidad de ejecutar sus pruebas con su herramienta. Si obtienen malos resultados allí, puede llamar cómodamente erróneos a los resultados anteriores. (Siempre que sus pruebas sean buenas, por supuesto). Si obtienen buenos resultados, está de vuelta en el punto de partida.
@F'x Claramente, el software y el método no son lo mismo. Esto podría ser diferentes algoritmos o diferentes configuraciones/parámetros entre los dos códigos. Estoy de acuerdo con Daniel E. Shub en que (como editor o revisor) dudaría en aceptar sus resultados sin algún intento de explicar las discrepancias. Para bien o para mal, su trabajo se publica y el tuyo no, por lo que la responsabilidad recae en ti para tratar de explicar las diferencias, o al menos validar tu método.

¿Puedes/estás dispuesto a tirar un hueso?

Podría valer la pena discutir tenerlos como autor en el artículo. Tal vez pueda llegar a un acuerdo para obtener lo que desea (obtener acceso a su software, resultados, etc.) a cambio de incluirlos en sus publicaciones y tener cierto nivel de colaboración. ¡Te sorprenderá ser honesto sobre esto y hablar de ello abiertamente podría funcionar! Mis dos mejores trabajos hasta la fecha provienen de hacer exactamente eso y luego desarrollar una relación de trabajo con las personas que no eran tan comunicativas. Después de eso, hemos publicado dos artículos adicionales juntos. Quién sabe, es posible que terminen colaborando y haciendo cosas mejores y más grandes juntos si funciona. Lo probaría antes de decidir simplemente publicar los resultados de la manera que describiste.

Esto puede ser un poco complicado... El artículo conjunto también puede parecer que el autor original amplía su propio trabajo, contigo como coautor subordinado. La pregunta que debes hacerte es: ¿Se verá esto como mi propio trabajo/contribución? Esta es la pregunta que también se harán los comités de contratación/subvención. Si no está claro que es su propio trabajo, por ejemplo, el otro autor es más antiguo y todavía está activo en el campo, y/o él/ella también presentará el trabajo conjunto en conferencias y charlas, entonces manténgase alejado.
@Pedro lo sugerí porque "está claro que no quieren invertir tiempo en hacer un seguimiento serio de su parte". Estoy de acuerdo en que esto podría suceder si la relación no se gestiona y negocia bien. Pero el lado positivo también es significativo como lo experimenté. En mi caso, fue con el autor líder mundial en el campo y sí, él tomó algo de crédito por ello, pero siempre me mencionó. He obtenido cuatro artículos de trabajar con él hasta ahora (y todavía lo hacemos), todos en las principales revistas de campo que podría publicar y creo que esto tiene que ver con el hecho de que estaba publicando con él...

Me gustaría agregar un punto que aún no se ha mencionado. Puede o no ser aplicable a su situación, pero podría serlo en el caso general. Usted menciona que el resultado de las simulaciones numéricas no concuerda. Por lo tanto, sugiero:

Si no se puede hacer que dos modelos coincidan, es hora de hacer mediciones .

En realidad, esta es una buena idea incluso si están de acuerdo, pero si puede hacer mediciones, podrá confirmar que al menos uno de los modelos es incorrecto al menos para la situación específica de la medición.

Por supuesto, esto no siempre es posible.

Todas las publicaciones en las revistas científicas deben ser reproducibles y precisas. Es una tarea muy importante examinar los resultados de otros. Los autores originales obtienen mucho crédito si un investigador independiente verifica su teoría o modelo.

Casi todas las revistas tienen una sección denominada Comentario, * Cartas * o Carta al editor. A continuación se muestran algunos enlaces a estas columnas:

Por supuesto, esto es complicado y debes tener cuidado. Si cree que todo es preciso en su código, comentar en el documento es una opción.

Estoy de acuerdo con otros que han sugerido que publicar los nuevos resultados está bien. Mencione que hay una diferencia con el método antiguo pero que no es cualitativamente diferente.

Muchas revistas tienen la política de solicitar un comentario/dúplica del autor de cualquier estudio cuyo trabajo contradiga directamente. Si los editores creen que su comentario dentro del periódico califica, es posible que finalmente obtenga la respuesta que está buscando.

Pero también le insto a que piense detenidamente cuánto quiere arriesgar por esta discrepancia y cuánto tiempo quiere dedicarle. Parece que los resultados son cualitativamente iguales. Si termina siendo 100% correcto en todo, la contribución de un artículo que solo habla de la diferencia será una estimación ligeramente mejor. En algunas situaciones, eso puede valer mucho. En muchos otros, no cuenta mucho. Sabrá lo importante que es esto para su campo.

Una vez encontré un pequeño problema metodológico en un trabajo en mi segundo año de posgrado. Le hice una pregunta similar a la suya a un profesor que me preguntó si era probable que el error metodológico cambiara el resultado o invalidara los hallazgos principales. Cuando le dije que era muy poco probable, me dijo que probablemente no era el mejor uso de mi tiempo trabajar mucho en una réplica.

Está duro. Creo que deberías decir algo. Una nota en el periódico probablemente sea suficiente. Para este tipo de cosas, creo que una nota de investigación sobre Arxiv que puede citar podría ser una alternativa.