Diferencia entre revisiones de «Manifiesto de Leiden»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Creado al traducir la página «Leiden Manifesto»
(Sin diferencias)

Revisión del 12:55 22 mar 2024

El conocido como manifiesto de Leiden (Leiden Manifesto for research metrics, sigla LM) es un acuerdo de "diez principios básicos para guiar la evaluación de la investigación".[1]​Fue publicado como en el volumen 520, número 7548, de la revista Nature, el 22 de abril de 2015 y formulado por los profesores Diana Hicks y Paul Wouters en la 19ª Conferencia Internacional sobre Indicadores de Ciencia y Tecnología, celebrada del 3 al 5 de septiembre de 2014 en Leiden, Países Bajos.[2]

El manifiesto es una guía para combatir el mal uso de la bibliometría al evaluar los trabajos científicos. Otros ejemplos de bibliometría o cienciometría son el índice h, el factor de impacto o la llamada altmetría.[3]

Contexto

El manifiesto surgió de la creciente competitividad de la comunidad científica y universitaria, definida a veces como "obsesión por el factor de impacto".[1]​ La autora principal del LM, Diana Hicks, esperaba que publicar en Nature expandiría las ideas ya comunes en la esfera de la cienciometría a la comunidad científica en general.[4]​ Aunque los principios del LM no son nuevos para los cienciometristas, Hicks et al. deseaban crear una unificación de ideas para guiar a futuros editores y revisores de trabajos científicos.

DORA

Dos años antes del manifiesto se publicó la Declaración de San Francisco sobre Evaluación de la Investigación (DORA). El LM amplió las ideas presentadas en el DORA, que desde entonces ha sido firmado por más de 2000 organizaciones y más de 15000 personas en el mundo.[5]

Dora provino de la observación de que las organizaciones e instituciones de investigación más pequeñas podían verse afectadas negativamente por sus índices métricos de calidad.[6]

Según Hicks et al., las métricas científicas, como la tasa de citas, se utilizan demasiado para clasificar la calidad de las universidades y, por lo tanto, la calidad de sus resultados de investigación.[7][8]

Factor de impacto

El factor de impacto de la revista, creado originalmente por Eugene Garfield como método para que los bibliotecarios recopilen datos para facilitar la selección de revistas para comprar, ahora se utiliza principalmente como método para juzgar la calidad de las revistas.[9]​ Esto es visto por Hicks et al. como un abuso de los datos para examinar la investigación demasiado apresuradamente.

Principios

Compuesto por diez principios concisos, junto con una descripción de cada uno, el Manifiesto de Leiden tiene como objetivo reconstruir la forma en que se realizan las evaluaciones de investigación por parte de editoriales académicas e instituciones científicas.[10]

Los diez principios del Manifiesto de Leiden son los siguientes:[1]

  1. La evaluación cuantitativa debe respaldar la evaluación cualitativa y experta.
  2. Medir el desempeño en relación con las misiones de investigación de la institución, grupo o investigador.
  3. Proteger la excelencia en la investigación relevante a nivel local.
    • Es decir, permitir que la investigación que se lleva a cabo en un área o campo determinado aparezca en la publicación local correspondiente, en lugar de priorizar revistas de alto impacto.[11]
  4. Mantener la recopilación de datos y los procesos analíticos abiertos, transparentes y sencillos.
  5. Permitir que los evaluados verifiquen los datos y el análisis.
  6. Tener en cuenta la variación por campo en las prácticas de publicación y citación.
    • La revisión por pares y la tasa de citas pueden variar enormemente en diferentes disciplinas, por ejemplo, "las revistas mejor clasificadas en matemáticas tienen factores de impacto de alrededor de 3; las revistas mejor clasificadas en biología celular tienen factores de impacto de alrededor de 30".[12]
  7. Basar la evaluación de los investigadores individuales en un juicio cualitativo de su producción.
  8. Evitar la concreción fuera de lugar y falsa precisión.
    • Según Hicks et al., el uso de indicadores científicos puede preceder a suposiciones sólidas que no son necesariamente correctas. Por ejemplo, cuando se observa a un científico específico, una baja tasa de citas puede llevar al investigador a asumir una baja calidad de la investigación, que es implicando causalidad a partir de correlación. Proporcionar aclaraciones, así como múltiples indicadores sólidos, puede reducir la concreción.[1]
  9. Reconocer los efectos sistémicos de la evaluación y los indicadores.
  10. Examinar y actualizar regularmente los indicadores.

Véase también

Referencias

  1. a b c d Hicks, Diana; Wouters, Paul; Waltman, Ludo; de Rijcke, Sarah; Rafols, Ismael (22 de abril de 2015). «Bibliometrics: The Leiden Manifesto for research metrics». Nature 520 (7548): 429-431. Bibcode:2015Natur.520..429H. ISSN 0028-0836. PMID 25903611. doi:10.1038/520429a.  Error en la cita: Etiqueta <ref> no válida; el nombre «:0» está definido varias veces con contenidos diferentes
  2. «STI 2014 Leiden - 19th International Conference on Science and Technology Indicators». STI 2014 (en inglés). Consultado el 30 de noviembre de 2020. 
  3. «Leiden manifesto for research Metrics». Leiden manifesto for research Metrics (en inglés). Consultado el 4 de diciembre de 2020. 
  4. «Best Practices in Research Metrics: A Conversation with the lead author of the Leiden Manifesto - YouTube». www.youtube.com. Consultado el 4 de diciembre de 2020. 
  5. «DORA – San Francisco Declaration on Research Assessment (DORA)». sfdora.org. Consultado el 4 de diciembre de 2020. 
  6. van Raan, Anthony F.J.; van Leeuwen, Thed N.; Visser, Martijn S.; van Eck, Nees Jan; Waltman, Ludo (July 2010). «Rivals for the crown: Reply to Opthof and Leydesdorff». Journal of Informetrics (en inglés) 4 (3): 431-435. arXiv:1003.2113. doi:10.1016/j.joi.2010.03.008. 
  7. «World University Rankings». Times Higher Education (THE) (en inglés). 19 de septiembre de 2018. Consultado el 4 de diciembre de 2020. 
  8. «ARWU World University Rankings 2020 | Academic Ranking of World Universities». www.shanghairanking.com. Consultado el 4 de diciembre de 2020. 
  9. Larivière, Vincent; Sugimoto, Cassidy R. (2019), «The Journal Impact Factor: A Brief History, Critique, and Discussion of Adverse Effects», en Glänzel, Wolfgang; Moed, Henk F.; Schmoch et al., eds., Springer Handbook of Science and Technology Indicators, Springer Handbooks (en inglés) (Cham: Springer International Publishing): 3-24, ISBN 978-3-030-02511-3, doi:10.1007/978-3-030-02511-3_1, consultado el 4 de diciembre de 2020  .
  10. The Leiden Manifesto for Research Metrics (en inglés), consultado el 5 de diciembre de 2020 .
  11. López Piñeiro, Carla; Hicks, Diana (1 de enero de 2015). «Reception of Spanish sociology by domestic and foreign audiences differs and has consequences for evaluation». Research Evaluation (en inglés) 24 (1): 78-89. ISSN 0958-2029. doi:10.1093/reseval/rvu030. 
  12. Waltman, Ludo; Calero-Medina, Clara; Kosten, Joost; Noyons, Ed C. M.; Tijssen, Robert J. W.; Eck, Nees Jan van; Leeuwen, Thed N. van; Raan, Anthony F. J. van et al. (2012). «The Leiden ranking 2011/2012: Data collection, indicators, and interpretation». Journal of the American Society for Information Science and Technology (en inglés) 63 (12): 2419-2432. ISSN 1532-2890. arXiv:1202.3941. doi:10.1002/asi.22708.