Altmetrics

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

Altmetrics se utiliza para designar a las nuevas métricas que se proponen como alternativas al factor de impacto, usado para las revistas científicas, y a los índices de citas de persona, como el índice h. Este término se propuso en 2010,[1] [2] como una generalización de las métricas usadas a nivel de artículo,[3] y tiene sus raíces en la etiqueta de Twitter #altmetrics. Aunque a menudo las altmetrics se consideran como métricas sobre artículos, pueden utilizarse para personas, revistas, libros, conjuntos de datos, presentaciones, videos, repositorios de código fuente, páginas web, etc.[4] Las altmetrics no sólo cubren el número de citas, ya que también pueden usarse para otros aspectos del impacto de un trabajo, como cuántos datos o bases de conocimiento se refieren a él, visualizaciones del artículo, descargas, o menciones en medios sociales o en prensa.[5] [6]

Adopción[editar]

Diferentes sitios web y proyectos calculan altmetrics, incluyendo ImpactStory,[7] [8] Altmetric.com,[7] [9] Plum Analytics,[7] [10] [11] y CitedIn.[12] Diversos editores han comenzado a ofrecer esta información a los lectores, como por ejemplo BioMed Central, Public Library of Science,[13] Frontieres,[14] Nature Publishing Group,[15] y Elsevier. Elsevier anunció en una nota de prensa que "progresivamente atendería a métricas adicionales, incluyendo las llamadas Altmetrics, como medida de la influencia de revistas y de autores".[16] Desde marzo de 2009, Public Library of Science también ha introducido métricas a nivel de artículo para todos ellos.[13] Los agentes financiadores también han comenzado a mostrar interés en las métricas alternativas,[17] incluyendo al UK Medical Research Council.[18] Las Altmetrics han sido utilizadas en solicitudes y revisiones de promoción por investigadores.[19] Además, varias universidades, incluyendo la University of Pittsburgh están experimentando con altmetrics a nivel de institución.[19]

Sin embargo, se ha observado que un artículo necesita poca atención para subir hasta el primer cuartil del ranking de artículos,[20] lo que sugiere que todavía no hay disponibles suficientes fuentes de altmetrics para obtener una visión equilibrada del impacto de la mayoría de los artículos.

Resulta fundamental para determinar el impacto relativo de un artículo que el servicio que se trate para calcular las estadísticas de altmetrics utilice una base de conocimiento de considerable tamaño. La tabla siguiente muestra el número de artículos cubiertos por dos de estos servicios:

Servicio Número de artículos
Altmetric.com 2.007.115[21]
ImpactStory 364.000[22]

Categorías[editar]

Los altmetrics son un amplio grupo de indicadores que abordan diferentes aspectos del impacto que un artículo o un trabajo pueden tener. En septiembre de 2012[23] ImpacStory propuso una clasificación de los indicadores de altmetrics, muy similar a la utilizada por la Public Library of Science (PLOS):[24]

  • Visualizaciones - Visualizaciones HTML y descargas de PDF.
  • Comentarios - Comentarios en revistas, blogs científicos, Wikipedia, Twitter, Facebook y otros medios de comunicación social.
  • Marcadores - Mendeley, CiteUlike y otros marcadores sociales.
  • Citas - Citas en la literatura académica, identificados por Web of Science, Scopus, CrossRef y otros similares.
  • Recomendaciones - por ejemplo utilizado por F1000Prime.[25]

Visualizaciones[editar]

Uno de los primeros indicadores alternativos que se va a utilizar es el número de visualizaciones o de consultas de un documento. Tradicionalmente, un autor quiere publicar en una revista que tenga una tasa de suscripción alta, porque de esta forma más público puede tener acceso a su investigación. Con la introducción de las tecnologías web va a ser posible saber con cuánta frecuencia es visualizado un documento dado en realidad. En general, los editores contabilizan el número de visualizaciones de los documentos HTML y de las descargas de documentos PDF. Desde 2004 BMJ (antiguo British Medical Journal) ya publicaba el número de visualizaciones de sus artículos, en el cual se mostraba una cierta correlación con el número de citas que recibían.[26]

Comentarios[editar]

El comentario o discusión de un artículo puede ser visto como una métrica que muestra el impacto potencial del artículo en cuestión. Las fuentes típicas de los datos para el cálculo de este indicador incluyen Facebook, Google+, Twitter, blogs científicos y páginas de Wikipedia . Se ha estudiado la correlación entre las menciones y el “me gusta” y las citas en la literatura científica primaria, y parece que existe una ligera correlación, por ejemplo, en artículos de PubMed.[27] En 2008, el Journal of Medical Internet Research empieza a publicar las consultas y los tweets sobre los artículos. Estas " tweetations " van a resultar ser un buen indicador de los artículos más citados. Esto permite proponer al autor un factor “Twimpact ", que correspondería al número de tweets que recibe un artículo en los primeros siete días desde su fecha de publicación, y un "Twindex", que seria el rango de percentil de Twimpact del artículo en cuestión.[28]

Además de Twitter y de otras redes sociales, los blogs han demostrado ser una poderosa plataforma pera comentar la literatura científica. Existen diversas plataformas para seguir el rastro de los artículos que se comentan en los blogs. Almetric.com utiliza esta información para calcular las métricas, mientras que otras herramientas, como ResearchBlogging y Chemical blogspace, sólo informan de dónde se produce el comentario o discusión. Por otra parte, estas plataformas pueden incluso ofrecer un ranking de artículos y recomendaciones de los mismos, como hace Faculty of 1000.

Marcadores[editar]

También puede ser informativo el número de personas que guardan un marcador de un documento dado. La idea subyacente a esta métrica es que una persona no guardaría en sus marcadores un artículo que no fuese de importancia para su propio trabajo. Los proveedores de este tipo de información incluyen servicios de marcadores específicamente orientados a las publicaciones científicas como CiteULike y Mendeley .

Citas[editar]

Además de los indicadores tradicionales basados en las citas que se utilizan en la literatura científica, como por ejemplo los ofrecidos por Web of Science, Scopus, Google Scholar, CrossRef y PubMed Central, los altmetrics también utilizan las citas que se obtienen de fuentes secundarias, y de otras fuentes de información. Por ejemplo, ImpactStory contabiliza el número de veces que un artículo ha sido citado en Wikipedia.[29]

Interpretación[editar]

Mientras el concepto de almetrics está en discusión,[30] también se cuestiona la interpretación de las métricas de altmetrics en particular. Los defensores de los altmetrics dejan claro que muchos de los indicadores muestran más la influencia o el compromiso sobre un tema, que el impacto real en el progreso de la ciencia.[24] Es necesario señalar que incluso las métricas basadas en citas no aseguran que una puntuación alta indique un impacto positivo en la ciencia; es decir, que los documentos pueden ser citados en artículos que no estén de acuerdo o que rebatan el artículo citado. Este es un tema tratado, por ejemplo, por el proyecto Citation Typing Ontology.[31]

Controversia[editar]

Resulta controvertida la utilidad de las métricas para estimar el impacto,[32] [33] pero existe una clara necesidad en la comunidad científica: las entidades financiadoras exigen indicadores cuantitativos y mensurables sobre el impacto de los fondos provistos. Al igual que el resto de indicadores, los altmetrics son sensibles a la auto-cita, a los juegos de azar y a otros mecanismos para aumentar el impacto aparente de un tema o un autor.[34] También se ha argumentado que los indicadores adoptados en la actualidad son aquellos que muestran un impacto positivo, mientras que los indicadores negativos también tendrían que ver reconocida su importancia.[35]

Sin embargo, ha de tenerse en cuenta que las métricas no son más que el resultado del seguimiento de cómo se utilizan los resultados de investigación. Realmente, es más significativo saber cuáles son los documentos que citan a otro, que conocer la frecuencia con la que se cita un documento. Esta información permite a los investigadores saber cómo su investigación influye, o no lo hace, en su campo de estudio. También hay que considerar que la puntuación obtenida en cada campo no informa directamente de la calidad o del impacto del documento. Por ejemplo, un artículo muy discutido puede ser simplemente muy controvertido: los artículos que se comentan en el Retraction Watch generalmente obtienen altos indicadores en altmetrics, a pesar de que estén siendo retirados de la literatura científica.

Otra fuente de objeciones contra los altmetrics, y contra otras métricas, es de qué forma las universidades están usando estas métricas para generar rankings de sus profesores e investigadores.[36]

Los proveedores de métricas también ofrecen acceso a la información de cómo se calculan los indicadores. Web of Science indica cuáles son los documentos que citan a otro, ImpactStory señala qué páginas de Wikipedia hacen referencia al documento, y CitedIn recoge qué bases de datos indizan el documento.[37]

Los almetrics pueden ser manipulados: por ejemplo, los “me gusta” y las menciones se pueden comprar.[34] Los altmetrics pueden resultar más difíciles de normalizar que las citas. Un ejemplo de ello es el número de tweets y enlaces a un artículo, que puede variar ampliamente dependiendo de cómo se recopilen los tweets.[38]

Los altmetrics de los artículos más recientes pueden ser más altos a causa del aumento de la captación de interés a través del web social, y por el hecho de que los artículos se mencionan principalmente cuando se produce la novedad de su publicación.[39] Como resultado de ello, no parece justo comparar las puntuaciones "altmétricas" de los artículos a no ser que haya sido publicados en el mismo año y en momentos similires del mismo, debido al rápido crecimiento de los sitios de web social.

Investigación en curso[editar]

Los casos y las características específicas de uso son un campo de investigación activo en bibliometría. buscando proporcionar los datos necesarios para medir adecuadamente el impacto de los altmetrics por sí mismos. La Public Library of Science tiene una Altmetrics Collection[40] e Information Standards Quarterly ha publicado recientemente un número especial sobre los altmetrics.[41]

Véase también[editar]

Referencias[editar]

  1. J. Priem (@jasonpriem), I like the term #articlelevelmetrics, but it fails to imply *diversity* of measures. Lately, I'm liking #altmetrics., 4:28 AM - 29 Sep 10, Tweet
  2. J. Priem, D. Taraborelli, P. Groth, C. Neylon, Altmetrics: a manifesto, 2010, http://altmetrics.org/manifesto/
  3. Peter Binfield
  4. E. Adie (@stew), @McDawg altmetrics could cover person, uni or journal level stats, non-trad contributions & items. ALMs a subset, fixes article as focus, 5:45 PM - 10 Aug 13, Tweet
  5. McFedries, P. (2012). «Measuring the impact of altmetrics [Technically Speaking]». IEEE Spectrum. 49 = 8: 28. doi:10.1109/MSPEC.2012.6247557. 
  6. Galligan, F.; Dyas-Correia, S. (2013). «Altmetrics: Rethinking the Way We Measure». Serials Review 39: 56–61 = 56. doi:10.1016/j.serrev.2013.01.003. 
  7. a b c Liu, J.; Adie, E. (2013). «New perspectives on article-level metrics: developing ways to assess research uptake and impact online». Insights. 26 = 2: 153. doi:10.1629/2048-7754.79. 
  8. "FAQ". ImpactStory. Retrieved 13 August 2013
  9. Liu, Jean; Euan Adie (8 July 2013). "New perspectives on article-level metrics: developing ways to assess research uptake and impact online". Insights 26 (2): 153. doi:10.1629/2048-7754.79. Retrieved 13 August 2013
  10. "About Us". Plum Analytics. Retrieved 19 August 2013.
  11. "Plum Analytics Metrics Overview". Plum Analytics. Retrieved 19 August 2013.
  12. "Included resources". CitedIn. Retrieved 16 August 2013
  13. a b "Article-Level Metrics Information". PLoS ONE. 2005-07-01. Retrieved 2012-05-29.
  14. http://www.frontiersin.org/about/evaluationsystem
  15. Press release: Article level metrics on nature.com, 2012,http://www.nature.com/press_releases/article-metrics.html
  16. Press release: Elsevier Announces 2012 Journal Impact Factor Highlights, 2012, http://www.marketwatch.com/story/elsevier-announces-2012-journal-impact-factor-highlights-2013-07-15
  17. Piwowar, H. (2013). «Altmetrics: Value all research products». Nature. 493 = 159. doi:10.1038/493159a. 
  18. Viney, I. (2013). «Altmetrics: Research council responds = 7436». Nature 494: 176. doi:10.1038/494176c. 
  19. a b Kwok, R. (2013). «Research impact: Altmetrics make their mark». Nature. 500 = 7463: 491–3. doi:10.1038/nj7463-491a. 
  20. J. Kelly, Altmetric rankings, 22 August 2013,http://infiniflux.blogspot.ca/2013/08/altmetric-rankings.html
  21. Determined on 31 March 2014 using the altmetrics record for a specific paper.
  22. ImpactStory (@ImpactStory). "@egonwillighagen Sorry, we've got no automated reporting tool for the db size yet. But I just checked and it's just over 364k items." 2013-10-20, 8:10. Tweet.
  23. "A new framework for altmetrics". ImpactStory Blog. 2012-09-14. Retrieved 2013-08-13
  24. a b Lin, J.; Fenner, M. (2013). «Altmetrics in evolution: Defining and redefining the ontology of article-level metrics». Information Standards Quarterly 25: 20–26. doi:10.3789/isqv25no2.2013.04. 
  25. F1000Prime
  26. Perneger, T.V. (2004). «Relation between online “hit counts” and subsequent citations: prospective study of research papers in the BMJ». BMJ. 329 = 7465: 546–7. doi:10.1136/bmj.329.7465.546. 
  27. Stefanie Haustein; Isabella Peters; Sugimoto, Cassidy R.; Mike Thelwall; Vincent Larivière (2013). "Tweeting biomedicine: an analysis of tweets and citations in the biomedical literature". arXiv:1308.1838 [[[cs.DL]]].
  28. Eysenbach, G. (2012). «Can tweets predict citations? Metrics of social impact based on Twitter and correlation with traditional metrics of scientific impact». Journal of Medical Internet Research 13: e123. doi:10.2196/jmir.2012. 
  29. "FAQ: which metrics are measured?". ImpactStory. Retrieved 13 August 2013.
  30. Jump, Paul (23 August 2012). "Research Intelligence - Alt-metrics: fairer, faster impact data?". Times Higher Education. Retrieved 13 August 2013.
  31. Shotton, D. (2010). «CiTO, the Citation Typing Ontology». Journal of Biomedical Semantics. 1 = Suppl 1: s1–s6. doi:10.1186/2041-1480-1-S1-S6. 
  32. Buschman, M.; Michalek, A. (abril/May de 2013). «Are alternative metrics still alternative?». asist&t Bulletin. Consultado el 25 maig 2014. 
  33. Cheung, M. K. (2013). «Altmetrics: Too soon for use in assessment». Nature. 494 = 7436: 176. doi:10.1038/494176d. 
  34. a b J. Beall, Article-Level Metrics: An Ill-Conceived and Meretricious Idea, 2013, http://scholarlyoa.com/2013/08/01/article-level-metrics/
  35. Holbrook, J. B.; Barr, K. R.; Brown, K.V. (2013). «Research impact: We need negative metrics too». Nature. 497 = 7450: 439. doi:10.1038/497439a. 
  36. David Colquhoun, How should universities be run to get the best out of people?, 2007
  37. Waagmeester, A.; Evelo, C. (17 de junio de 2011). «Measuring impact in online resources with the CI-number (the CitedIn Number for online impact)». Nature Precedings. doi:10.1038/npre.2011.6037.1. 
  38. Chamberlain, S. (2013). «Consuming article-level metrics: Observations and lessons». Information Standards Quarterly. 25 = 2: 4–13. doi:10.3789/isqv25no2.2013.02. 
  39. Thelwall, M.; Haustein, S.; Larivière, V.; Sugimoto, C. R. (2013). «Do Altmetrics work? Twitter and ten other social web services». PLoS ONE. 8 = 5: e64841. doi:10.1371/journal.pone.0064841. 
  40. Priem, J.; Groth, P.; Taraborelli, D. = 11. «The Altmetrics collection». PLoS ONE 7: e48753. doi:10.1371/journal.pone.0048753. 
  41. «Summer 2013 vol. 25 núm. 2». Information Standards Quarterly. doi:10.3789/isqv25no2.2013. 

Enlaces externos[editar]