Estoy haciendo mi doctorado en informática. Tuve algunos intentos para conferencias de primer nivel como IJCAI, CVPR e ICML, pero mi artículo fue rechazado y, en consecuencia, envié los artículos a conferencias de segundo nivel para tener publicaciones.
Sin embargo, cuando comparo mi trabajo con algunos trabajos aceptados (en años anteriores o el año actual) en esas conferencias, veo un nivel técnico similar o una novedad en ellos en comparación con los míos.
Por ejemplo, los revisores mencionaron más a menudo que simplemente agregué algo a los enfoques preexistentes o combiné cosas ya existentes de la literatura para dar forma a un algoritmo, lo que noté es un caso común en un número notable de artículos en las principales conferencias de informática.
Una cosa que no tengo en mis papeles es traer jerga matemática innecesaria pero sofisticada para mostrar que algo importante está sucediendo. Por ejemplo, noté en los artículos de otros, aunque la contribución fue, por ejemplo, agregar un término objetivo adicional en el marco de optimización, ¡usaron representaciones algebraicas complicadas o técnicas de visualización para relacionar su contribución con algunos fenómenos subyacentes más grandes! Pero la respuesta corta es que lo hicieron porque obviamente debería mejorar el resultado.
Desde otro punto, no estoy seguro si intento otra conferencia superior (con un trabajo nuevo) y mi trabajo es rechazado, ¿dañaría mi reputación o la de mi supervisor en el campo?
Entonces, aunque todavía tengo un gran entusiasmo por intentarlo para la próxima conferencia importante relevante, ¡tengo la sensación de que me falta un ingrediente importante de la receta!
PD: Mi asesor no es tan competente en este sentido y yo estoy entre el primer grupo de sus estudiantes de doctorado y pueden adivinar el resto.
Una cosa que no tengo en mis papeles es traer jerga matemática innecesaria pero sofisticada para mostrar que algo importante está sucediendo. Por ejemplo, noté en los artículos de otros, aunque la contribución fue, por ejemplo, agregar un término objetivo adicional en el marco de optimización, ¡usaron representaciones algebraicas complicadas o técnicas de visualización para relacionar su contribución con algunos fenómenos subyacentes más grandes! Pero la respuesta corta es que lo hicieron porque obviamente debería mejorar el resultado.
Se me ocurren varias formas de interpretar esta observación, algunas más caritativas que otras.
Los trabajos de investigación en ciencias de la computación no tratan sobre los resultados per se, sino sobre las técnicas desarrolladas para lograr esos resultados. Es posible que, a los ojos de los revisores, la aparente conexión con el fenómeno subyacente más amplio sea la principal contribución del artículo. La contribución principal no es simplemente que el resultado sea mejor, sino al menos un intento de explicación de por qué el resultado es mejor.
Las personas son malos jueces de la calidad de sus propios resultados de investigación. Más concretamente: su opinión sobre su investigación es irrelevante; solo importan las opiniones de tus compañeros. Si encuentran sus artículos menos interesantes que otros, entonces, por definición, sus artículos son menos interesantes.
Emerson estaba equivocado. El mundo no abrirá un camino hasta tu puerta si simplemente construyes una trampa para ratones mejor . Tienes que vender tus resultados. Para que sus trabajos sean aceptados, deben seguir las expectativas culturales de su audiencia. Si la audiencia de IJCAI/ICML/CVPR espera un cierto nivel de sofisticación matemática, es menos probable que se acepten los artículos que no muestren esa sofisticación, incluso si esa sofisticación es innecesaria .
Es muy fácil confundir profundidad/complejidad matemática con importancia/dificultad. Las principales conferencias teóricas de informática tienen la reputación de preferir artículos matemáticamente más "difíciles" a artículos que utilizan técnicas más elementales, y muchos revisores asumen sin justificación que cualquier resultado que parezca sencillo en retrospectiva debe haber sido fácil de derivar. Pero a menos que alguien demuestre que P=NP, "trivial" es diferente de "trivial no determinista".
Debido a que CVPR, ICML e IJCAI son conferencias enormes con bajas tasas de aceptación, las decisiones de aceptación tienen una gran variación. Dada la amplitud y complejidad del campo, la cantidad ridícula de presentaciones y el tiempo limitado para las revisiones, es imposible que el comité del programa emita juicios completamente informados sobre cada presentación. Hay un elemento de aleatoriedad incluso en conferencias más pequeñas, pero para conferencias más grandes y prestigiosas, la aleatoriedad supera la "señal" real. En 2014, NIPS realizó un experimento con dos comités de programas independientes; la mayoría de los trabajos aceptados por un comité fueron rechazados por el otro . Me sorprende que a alguien le haya parecido sorprendente este resultado.
Los miembros del PC son simios; hacen cosas raras. Como en cualquier otra gran comunidad, existen subcomunidades dentro del aprendizaje automático que prefieren sus propios artículos a los de otros. A pesar de que las presentaciones son ciegas, los revisores pueden identificar la afiliación tribal, aunque solo sea inconscientemente, mediante el estilo de escritura, los patrones de citas, la elección del método, la elección del conjunto de datos o la elección de las métricas de evaluación. Si no pertenece a la tribu correcta, es menos probable que sus documentos sean aceptados.
¡Usaron representaciones algebraicas complicadas o técnicas de visualización para relacionar su contribución con algunos fenómenos subyacentes más grandes! Pero la respuesta corta es que lo hicieron porque obviamente debería mejorar el resultado.
Esto (relacionar su contribución con el panorama general) es una parte importante de los artículos en nuestros campos, así que supongo que también en los suyos. Los revisores/lectores no conocen el panorama general de su investigación específica, debe decírselo. Parece que usted no lo hace, mientras que otros, mientras realizan una investigación de calidad similar, sí lo hacen.
Una cosa que he experimentado es no "sobreajustar" a los artículos aceptados que acaban de publicarse. Es muy fácil mirar un artículo publicado y decir "¡Esto no es realmente muy novedoso! ¡Yo también puedo hacer esto!", y luego proceder a usarlo como punto de referencia para la novedad mínima viable. También noté que al apuntar al límite, los papeles tienden a ser más rechazados. Además, también está el elemento tiempo. La novedad técnica está a la altura del tiempo.
Por otra parte, no creo que sea saludable asumir que el trabajo de uno está a la altura de la novedad. Puedes pensar que tu trabajo es realmente novedoso, pero puede que no. Las revisiones y los resultados de aceptación/rechazo dicen la verdad, hasta cierto punto. Hay cierta variación en los resultados y, a veces, la suerte no está de tu lado. Pero siempre creo que un artículo razonablemente aceptable debería llegar a una conferencia superior después de 1 o 2 intentos más después de haber sido rechazado una vez.
¿Qué tipo de puntajes obtienes normalmente? Hay muchos grados diferentes de cómo se rechaza un artículo. Hay una gran diferencia entre 1 aceptación fuerte + 2 rechazos y 3 rechazos débiles.
Esta pregunta tiene su respuesta en las respuestas de los revisores.
Al final, los revisores y el editor son quienes deciden si una presentación es lo suficientemente buena para aparecer en una conferencia/actas/revista. Si escriben que agregó algo a los enfoques preexistentes, significa que su presentación carece de novedad.
Además, tal vez la jerga matemática innecesaria pero sofisticada es la definición formal del problema cuya ausencia provoca terribles ambigüedades.
Su reputación dañada es un caso muy raro. Sin embargo, si sigue enviando documentos que carecen de novedad y lenguaje técnico, es posible que lo incluyan en la lista negra. La reputación de su supervisor no tiene nada que ver con esto.
Jack loco
Beto
usuario64845
guardián del faro
Carlos
GEdgar
Beto
FBolst
herman pudrición dental