Metaciencia

De Wikipedia, la enciclopedia libre

La metaciencia o meta-investigación es el uso de metodología científica para estudiar la propia ciencia. La metaciencia busca mejorar la calidad de la investigación científica a la par que reducir la ineficiencia. En el mundo anglosajón también es conocida como "investigación de la investigación" y "ciencia de la ciencia", ya que emplea métodos de investigación para estudiar cómo se hace la investigación y dónde se pueden hacer mejoras.

La metaciencia se preocupa de todas las áreas de investigación y ha sido descrita como "una visión de la ciencia a vista de pájaro".[1]​ En palabras de John Ioannidis: "la ciencia es lo mejor que les haya ocurrido a los seres humanos... Pero lo podemos hacer mejor".[2]

En 1966 un artículo de meta-investigación, examinó los métodos estadísticos de 295 artículos publicados en diez revistas médicas. Casi el 73% de los informes extrajeron conclusiones, cuando la justificación para estas conclusiones no eran válidas. En las siguientes décadas, la metainvestigación encontró muchos defectos metodológicos, ineficiencias, y malas prácticas en investigación en numerosos campos de la ciencia. Muchos de los estudios científicos no podían ser reproducidos, particularmente en medicina y las ciencias blandas. El término "crisis de replicación" fue acuñado a principios de la década de 2010 como parte de una mayor concienciación sobre el problema.[3][4]

Se han implementado medidas para abordar los problemas revelados por la metaciencia. Estas medidas incluyen la preinscripción de estudios científicos y pruebas clínicas, así como la fundación de organizaciones como CONSORT y la Red ECUATOR, que proporcionan informes con directrices para la metodología y para "informar y publicar investigaciones".[5]​ Hay esfuerzos continuados para reducir el mal uso de las estadísticas, para eliminar los incentivos perversos del mundo académico, para mejorar el proceso de revisión académica por pares, para combatir los sesgos en la literatura científica, y para incrementar globalmente la calidad y la eficacia del proceso científico.

Historia[editar]

En 1966, un primer trabajo de meta-investigación, examinó los métodos estadísticos de 295 artículos publicados en diez revistas médicas de alto perfil. Se encontró que, "en casi el 73% de los informes leídos ... se sacaron conclusiones cuando la justificación de estas conclusiones no era válida".[6]​ Más tarde, la metainvestigación identificó una dificultad generalizada para replicar resultados en muchos campos científicos, incluida la psicología y la medicina. Este problema se denominó " la crisis de replicación". La metaciencia ha crecido como reacción a la crisis de replicación y a las preocupaciones sobre el desperdicio en la investigación.[7]

Muchas editoriales destacadas están interesadas en la metainvestigación y en mejorar la calidad de sus publicaciones. Las principales publicaciones, como Science, The Lancet y Nature ofrecen una cobertura continua de la metainvestigación y los problemas de reproducibilidad.[8]​ En 2012 PLOS ONE lanzó una Iniciativa de Reproducibilidad. En 2015, BioMed Central introdujo una lista de verificación de estándares mínimos de informes para cuatro títulos.

La primera conferencia internacional en el área amplia de meta-investigación fue la conferencia Research Waste/EQUATOR celebrada en Edimburgo en 2015; la primera conferencia internacional sobre revisión por pares fue el Congreso de revisión por pares celebrado en 1989.[9]
En 2016 se lanzó Research Integrity and Peer Review. El editorial de apertura de la revista pidió "investigaciones que aumenten nuestra comprensión y sugieran posibles soluciones a problemas relacionados con la revisión por pares, informes de estudios y ética de investigación y publicación".[10]

Áreas de meta-investigación[editar]

La metaciencia puede clasificarse en cinco áreas principales de interés: métodos, informes, reproducibilidad, evaluación e incentivos. Estos corresponden, respectivamente, a cómo realizar, comunicar, verificar, evaluar y recompensar la investigación.[11]

Crisis de replicación[editar]

John Ioannidis (2005), "Por qué muchos de los trabajos de investigación son falsos[12]

La crisis de replicación (o crisis de replicabilidad o crisis de reproducibilidad) se refiere a una crisis metodológica en las ciencias causada por las dificultades encontradas por los investigadores para replicar los resultados de muchos de los experimentos científicos en investigaciones posteriores, bien por investigadores independientes o bien por los investigadores originales de estos estudios.[13]​ Aunque la crisis ha estado presente a lo largo del tiempo, la frase fue acuñada a inicios de la década de 2010 como parte de una mayor concienciación sobre el problema. La crisis de replicación representa un tema de investigación importante en el campo de la metaciencia.

Considerando que la reproducibilidad de experimentos es una parte esencial del método científico, la incapacidad de replicar los estudios de otros investigadores tiene consecuencias potencialmente graves para muchos campos de la ciencia, lo que puede suponer el desmoronamiento de teorías significativas o que sean irreproducibles en su trabajo experimental.

La crisis de replicación ha sido particularmente discutida en psicología (y en particular, psicología social) y en medicina, donde se ha trabajado para reinvestigar resultados clásicos con el fin de determinar tanto la fiabilidad de los mismos, como, en caso de resultar inválidos, las razones del fracaso de la replicación.[14][15]

Véase también[editar]

Referencias[editar]

  1. Ioannidis, John P. A.; Fanelli, Daniele; Dunne, Debbie Drake; Goodman, Steven N. (2 de octubre de 2015). «Meta-research: Evaluation and Improvement of Research Methods and Practices». PLOS Biology 13 (10): -1002264. ISSN 1545-7885. PMC 4592065. PMID 26431313. doi:10.1371/journal.pbio.1002264. 
  2. Bach, Becky (8 de diciembre de 2015). «On communicating science and uncertainty: A podcast with John Ioannidis». Scope. Consultado el 20 de mayo de 2019. 
  3. Pashler, Harold; Wagenmakers, Eric Jan (2012). «Editors' Introduction to the Special Section on Replicability in Psychological Science: A Crisis of Confidence?». Perspectives on Psychological Science 7 (6): 528-530. PMID 26168108. doi:10.1177/1745691612465253. 
  4. Ioannidis, John P. A. (30 de agosto de 2005). «Why Most Published Research Findings Are False». PLoS Medicine (en inglés) 2 (8): e124. ISSN 1549-1676. doi:10.1371/journal.pmed.0020124. Consultado el 5 de agosto de 2022. 
  5. «Resources in Spanish / Recursos en español | The EQUATOR Network». www.equator-network.org. Consultado el 28 de enero de 2020. 
  6. Schor, Stanley (1966). «Statistical Evaluation of Medical Journal Manuscripts». Jama 195 (13): 1123. ISSN 0098-7484. doi:10.1001/jama.1966.03100130097026. 
  7. «Researching the researchers». Nature Genetics 46 (5): 417. 2014. ISSN 1061-4036. PMID 24769715. doi:10.1038/ng.2972. 
  8. Enserink, Martin (2018). «Research on research». Science 361 (6408): 1178-1179. Bibcode:2018Sci...361.1178E. ISSN 0036-8075. PMID 30237336. doi:10.1126/science.361.6408.1178. 
  9. Rennie, Drummond (1990). «Editorial Peer Review in Biomedical Publication». JAMA 263 (10): 1317-1441. ISSN 0098-7484. PMID 2304208. doi:10.1001/jama.1990.03440100011001. 
  10. Harriman, Stephanie L.; Kowalczuk, Maria K.; Simera, Iveta; Wager, Elizabeth (2016). «A new forum for research on research integrity and peer review». Research Integrity and Peer Review 1 (1): 5. ISSN 2058-8615. PMC 5794038. PMID 29451544. doi:10.1186/s41073-016-0010-y. 
  11. Ioannidis, John P. A.; Fanelli, Daniele; Dunne, Debbie Drake; Goodman, Steven N. (2 de octubre de 2015). «Meta-research: Evaluation and Improvement of Research Methods and Practices». PLoS Biology 13 (10): e1002264. ISSN 1544-9173. PMC 4592065. PMID 26431313. doi:10.1371/journal.pbio.1002264. 
  12. Ioannidis, JPA (2016). «Why Most Clinical Research Is Not Useful». PLoS Med 13 (6): e1002049. doi:10.1371/journal.pmed.1002049. 
  13. Schooler, J. W. (2014). «Metascience could rescue the 'replication crisis'». Nature 515 (7525): 9. doi:10.1038/515009a. 
  14. Gary Marcus (1 de mayo de 2013). «The Crisis in Social Psychology That Isn’t». The New Yorker. 
  15. Jonah Lehrer (13 de diciembre de 2010). «The Truth Wears Off». The New Yorker. 

Enlaces externos[editar]