Los factores de impacto y los recuentos de citas son métricas ampliamente utilizadas para juzgar la reputación de los investigadores. Sin embargo, estas métricas pueden ser engañosas y, en algunos casos, pueden manipularse.
¿Por qué las universidades otorgan tanta importancia al recuento de citas y los factores de impacto acumulativo?
porque es fácil
Digamos que tiene 100 investigadores para evaluar. ¿Cómo harías para hacerlo? Podrías leer sus artículos con suficiente detalle para entenderlos (tomaría meses o años, especialmente si no están en tu campo). Puede confiar en las evaluaciones de pares y las cartas de recomendación (que ya se han hecho ampliamente). Podrías ver los premios y premios ganados (también ya se ha hecho extensamente). O podría mirar los recuentos de citas y los factores de impacto. El último es fácil de hacer y, aunque no es perfecto, es objetivo y existe una correlación con la calidad de la investigación (el recuento de citas es el método estándar para medir la excelencia en bibliometría ).
Además, muchos no especialistas se preocupan por el número de citas y los factores de impacto, por ejemplo, todas las clasificaciones de las principales universidades lo utilizan y los estudiantes miran las clasificaciones. Salir mal en esos rankings puede hacer que uno sea menos atractivo para los estudiantes, con todas sus consecuencias negativas.
Ver también esto :
Pero. Los candidatos a profesores son necesariamente juzgados por personas que no son expertas en su campo. Sin la experiencia para juzgar si su trabajo es realmente bueno, esas personas deben buscar datos secundarios que se correlacionen fuertemente con investigadores exitosos. Una de esas características secundarias es el "pedigrí". ¿Obtuviste tu título en MIT, Berkeley, Stanford, CMU, otro departamento de los 10 principales o en algún otro lugar? (¿Qué es una "Ivy League"?) ¿Qué tan bueno/famoso es su asesor? Si realmente están prestando atención: ¿Dónde consiguieron trabajo los otros estudiantes de doctorado de su asesor y qué tan bien les está yendo ahora?
Afortunadamente, la mayoría de los buenos departamentos hacen un gran esfuerzo por comprender la calidad y el impacto de los resultados de los solicitantes, en lugar de confiar solo en datos secundarios. Además, los datos secundarios importan considerablemente menos una vez que realmente tiene una entrevista.
Sí, todo es marketing, pero en estos días en que los gobiernos financian una proporción decreciente del costo de la educación, donde las universidades compiten por los estudiantes y donde la proporción entre administración y facultad sigue aumentando, la administración necesita nuevos ingresos. Consulte este artículo en la revista Forbes para conocer más contexto y presiones financieras sobre las instituciones.
La pregunta es imposible de responder ya que la premisa es falsa , o al menos no tiene prueba. Específicamente,
por qué la mayoría de las universidades dan demasiada importancia al recuento de citas y al factor de impacto acumulativo
Ninguna universidad que conozco se preocupa en absoluto por los factores de impacto, que en la mayoría de los casos son falsos (los que informan las revistas).
El recuento de citas es un poco más importante y, en ocasiones, se usa como un indicador del "impacto" de un científico, pero incluso esto no se reconoce universalmente y la mayoría de las universidades no verifican explícitamente esta medida.
De hecho, la promoción y contratación se basa más en:
Tampoco tengo idea de "mayoría", pero ocasionalmente estamos discutiendo cuál sería una "métrica justa" para contar publicaciones. Todo el mundo está de acuerdo en que la evaluación del verdadero mérito científico es poco práctica (o incluso imposible) por una variedad de razones, desde la imposibilidad de leer y evaluar cuidadosamente todos los artículos en una variedad de áreas completamente diferentes hasta el mero hecho de estimar el impacto real de algo. , uno tiene que esperar más de 10 años como mínimo.
Nuestro sistema actual (por lo que recuerdo) es tener revistas de nivel 1 y nivel 2 con 2 puntos por una publicación en el primero y 1 en el segundo (también hay algunas reglas sofisticadas sobre publicaciones únicas versus publicaciones en coautoría). Era demasiado perezoso para leer correctamente, así que prefiero omitirlos aquí). Está lejos de ser ideal y es constantemente criticado por todos lados, pero después de todo no es un compromiso tan malo. He oído hablar de arreglos mucho peores en los que la formalización se convirtió en algo completamente absurdo (desde mi perspectiva, al menos). Los niveles están determinados por el "acuerdo general" (y aquí hay algo de lucha) con el factor de impacto jugando algún papel, pero no el decisivo. En general,
La razón principal de la existencia misma de este sistema de puntos parece ser que tampoco nos gustaría explicarle a la administración qué vale qué de forma rutinaria, ni a la administración le gustaría escuchar tales explicaciones más a menudo de lo absolutamente necesario, así que todo debe reducirse a un solo número. Cuando surgen casos realmente importantes (como la promoción a la titularidad, etc.), el número simplemente debe estar por encima de un cierto umbral (bastante bajo) y la decisión se toma en función principalmente de las cartas de recomendación y demás, pero para cuestiones triviales como el salario anual por mérito. basta con subir ese número y todo el mundo puede ver cómo se hacen los premios. La transparencia aquí es al menos tan importante como la equidad y dado que esta última difícilmente puede lograrse incluso en teoría, recurrir al famoso principio KISS es una idea razonable.
Por supuesto, la situación varía de un lugar a otro, pero lo que debe recordarse es que muchas reglas como esa no son creaciones de las universidades, sino de la facultad en los departamentos particulares, y los monstruos más feos nacen cuando la gente no quiere. ponerse de acuerdo en nada o incluso escucharse unos a otros. Varias "clasificaciones" de agencias independientes también juegan algún papel, por supuesto, y los factores de cita juegan un papel notable allí, a veces de una manera bastante extraña (nuevamente, en mi humilde opinión).
Como dije, el sistema actual está lejos de ser ideal, pero si alguna vez se le ocurre una idea brillante de una manera realmente buena (justa, transparente y práctica), hágamelo saber y estaré encantado de defenderlo localmente. :-)
En mi opinión, un problema importante es el concepto de "objetividad" y los problemas que conlleva. La objetividad puede significar muchas cosas, pero a menudo se toma como el resultado de un procedimiento de medición transparente y reproducible, y se asocia con la eliminación de la influencia de intereses y opiniones personales.
El dilema esencial con esto es que la capacidad y el potencial de un investigador y el valor de su trabajo son tan complejos (y seguramente no unidimensionales, como debe ser cualquier clasificación) que es probable que ningún procedimiento de medición "objetivo" pueda hacerlo. ellos justicia. En algunos lugares hay una tendencia a priorizar mediciones numéricas directas a pesar de ser obviamente deficientes (no estoy diciendo necesariamente que el número de citas y los factores de impacto sean los mejores). En algunos otros lugares, los miembros de la comisión toman decisiones de manera poco transparente, teniendo en cuenta las cartas de referencia y otra información de los pares. Esto puede funcionar bien, pero también está relacionado con el favoritismo y las viejas redes que protegen su campo.
leucocitaria
Mohaqiq
leucocitaria
Ian Sudbery
EscocésGrifoEl Agua
Kimball
jrh
marsupial dikran
marsupial dikran
andreas blass
Thorbjorn Ravn Andersen
miguel kay
jrh
Thorbjorn Ravn Andersen
Ian Sudbery