Experimento de campo

De Wikipedia, la enciclopedia libre

Los experimentos de campo, como los experimentos de laboratorio, asignan aleatoriamente a los sujetos (u otras unidades de muestreo) a grupos de tratamiento o de control para evaluar las afirmaciones de relaciones causales. La asignación aleatoria ayuda a establecer la comparabilidad del grupo de tratamiento y control, de modo que cualquier diferencia entre ellos que surja después de que el tratamiento haya sido administrado refleje de manera plausible la influencia del tratamiento en lugar de las diferencias preexistentes entre los grupos. Las características distintivas de los experimentos de campo son que se llevan a cabo en entornos del mundo real y, a menudo, discretamente. Esto contrasta con los experimentos de laboratorio, que imponen el control científico al probar una hipótesis en el entorno artificial y altamente controlado de un laboratorio. Los experimentos de campo también tienen algunas diferencias contextuales de los experimentos y cuasiexperimentos que ocurren naturalmente.[1]​ Si bien los experimentos que se producen naturalmente dependen de una fuerza externa (por ejemplo, un gobierno, una organización sin fines de lucro, etc.) que controla la asignación e implementación del tratamiento de aleatorización, los experimentos de campo requieren que los investigadores retengan el control sobre la aleatorización y la implementación. Los cuasiexperimentos se producen cuando los tratamientos se administran de forma aleatoria (por ejemplo, distritos del Congreso de EE. UU. donde los candidatos ganan con márgenes reducidos,[2]​ patrones climáticos, desastres naturales, etc. )

Los experimentos de campo abarcan una amplia gama de diseños experimentales, cada uno con diversos grados de generalidad. Algunos criterios de generalidad (por ejemplo, autenticidad de los tratamientos, participantes, contextos y medidas de resultado) se refieren a las similitudes contextuales entre los sujetos de la muestra experimental y el resto de la población. Se utilizan cada vez más en las ciencias sociales para estudiar los efectos de las intervenciones relacionadas con las políticas en ámbitos como la salud, la educación, la delincuencia, el bienestar social y la política.

Características[editar]

Bajo asignación aleatoria, los resultados de los experimentos de campo reflejan el mundo real porque los sujetos se asignan a grupos basados en probabilidades no deterministas.[3]​ Otros dos supuestos centrales subyacen a la capacidad del investigador para recopilar resultados potenciales imparciales: excluibilidad y no interferencia.[4][5]​ El supuesto de excluibilidad establece que el único agente causal relevante es a través de la recepción del tratamiento. Las asimetrías en la asignación, administración o medición de los grupos de tratamiento y control violan este supuesto. El supuesto de no interferencia, o Supuesto de valor de tratamiento de unidad estable (SUTVA), indica que el valor del resultado depende solo de si el sujeto recibe o no el tratamiento y no si otros sujetos están asignados o no al tratamiento. Cuando se cumplen estos tres supuestos básicos, es más probable que los investigadores proporcionen estimaciones imparciales a través de experimentos de campo.

Después de diseñar el experimento de campo y reunir los datos, los investigadores pueden usar pruebas de inferencia estadística para determinar el tamaño y la fuerza del efecto de la intervención en los sujetos. Los experimentos de campo permiten a los investigadores recopilar diversas cantidades y tipos de datos. Por ejemplo, un investigador podría diseñar un experimento que use información previa y posterior al ensayo en un método de inferencia estadística apropiado para ver si una intervención tiene un efecto en los cambios a nivel de sujeto en los resultados.

Usos prácticos[editar]

Los experimentos de campo ofrecen a los investigadores una forma de probar teorías y responder preguntas con mayor validez externa porque simulan sucesos del mundo real. Algunos investigadores sostienen que los experimentos de campo son una mejor protección contra posibles sesgos y estimadores sesgados. Además, los experimentos de campo pueden actuar como puntos de referencia para comparar datos de observación con resultados experimentales. El uso de experimentos de campo como puntos de referencia puede ayudar a determinar los niveles de sesgo en los estudios observacionales y, dado que los investigadores a menudo desarrollan una hipótesis a partir de un juicio a priori, los puntos de referencia pueden ayudar a agregar credibilidad a un estudio.[6]​ Mientras que algunos argumentan que el ajuste de covariables o los diseños coincidentes podrían funcionar igual de bien para eliminar el sesgo, los experimentos de campo pueden aumentar la certeza[7]​ al desplazar el sesgo variable omitido porque asignan mejor los factores observados y no observados.[8]

Los investigadores pueden utilizar métodos de aprendizaje automático para simular, repesar y generalizar datos experimentales.[9]​ Esto aumenta la velocidad y la eficiencia de la recopilación de resultados experimentales y reduce los costos de implementación del experimento. Otra técnica de vanguardia en experimentos de campo es el uso del diseño de bandido multi armado,[10]​ incluye diseños adaptativos similares en experimentos con resultados variables y tratamientos variables a lo largo del tiempo.[11]

Limitaciones[editar]

Existen limitaciones y argumentos en contra del uso de experimentos de campo en lugar de otros diseños de investigación (por ejemplo, experimentos de laboratorio, experimentos de encuestas, estudios de observación, etc.) Dado que los experimentos de campo necesariamente tienen lugar en un entorno geográfico y político específico, existe la preocupación de extrapolar los resultados para formular una teoría general sobre la población de interés. Sin embargo, los investigadores han comenzado a encontrar estrategias para generalizar efectivamente los efectos causales fuera de la muestra comparando los entornos de la población tratada y la población externa, accediendo a la información de un tamaño de muestra más grande y contando y modelando la heterogeneidad de los efectos del tratamiento dentro de la muestra. Otros han utilizado técnicas de bloqueo de covariables para generalizar desde poblaciones de experimentos de campo a poblaciones externas.[12]

Los problemas de incumplimiento que afectan a los experimentos de campo (tanto el incumplimiento unilateral como el bilateral)[13]​ pueden ocurrir cuando los sujetos asignados a un determinado grupo nunca reciben su intervención asignada. Otros problemas para la recopilación de datos incluyen el desgaste (donde los sujetos que son tratados no proporcionan datos de resultados) que, bajo ciertas condiciones, sesgarán los datos recopilados. Estos problemas pueden conducir a un análisis de datos impreciso; sin embargo, los investigadores que usan experimentos de campo pueden usar métodos estadísticos para calcular información útil incluso cuando ocurren estas dificultades.[14]

El uso de experimentos de campo también puede generar preocupaciones sobre la interferencia[15]​ entre los sujetos. Cuando un sujeto o grupo tratado afecta los resultados del grupo no tratado (a través de condiciones como el desplazamiento, la comunicación, el contagio, etc.), los grupos no tratados pueden no tener un resultado que sea el verdadero resultado no tratado. Un subconjunto de interferencia es el efecto indirecto, que ocurre cuando el tratamiento de los grupos tratados tiene un efecto en los grupos vecinos no tratados.

Los experimentos de campo pueden ser costosos, llevar mucho tiempo, difíciles de replicar y plagar con dificultades éticas. Los sujetos o las poblaciones pueden socavar el proceso de implementación si existe una percepción de injusticia en la selección del tratamiento (por ejemplo, en experimentos de 'impuesto negativo sobre la renta' las comunidades pueden presionar para que su comunidad obtenga una transferencia de efectivo para que la asignación no sea puramente aleatoria). Existen limitaciones para recopilar formularios de consentimiento de todos los sujetos. Los camaradas que administran intervenciones o recopilan datos podrían contaminar el esquema de aleatorización. Los datos resultantes, por lo tanto, podrían ser más variados: mayor desviación estándar, menor precisión y exactitud, etc. Esto lleva al uso de muestras de mayor tamaño para las pruebas de campo. Sin embargo, otros argumentan que, aunque la replicabilidad es difícil, si los resultados del experimento son importantes, entonces existe una mayor posibilidad de que el experimento se repita. Además, los experimentos de campo pueden adoptar un diseño de "cuña escalonada" que eventualmente dará acceso a toda la muestra a la intervención en diferentes horarios.[16]​ Los investigadores también pueden diseñar un experimento de campo ciego para eliminar las posibilidades de manipulación.

Ejemplos[editar]

La historia de los experimentos en el laboratorio y en el campo ha dejado impactos de larga data en las ciencias físicas, naturales y de la vida. Los experimentos de campo de uso moderno tienen raíces en la década de 1700, cuando James Lind utilizó un experimento de campo controlado para identificar un tratamiento para el escorbuto.[17]

Otros ejemplos categóricos de ciencias que usan experimentos de campo incluyen:

Véase también[editar]

Referencias[editar]

  1. Meyer, B. D. (1995). «Natural and quasi-experiments in economics». Journal of Business & Economic Statistics 13 (2): 151-161. 
  2. Lee, D. S.; Moretti, E.; Butler, M. J. (2004). «Do voters affect or elect policies? Evidence from the US House». The Quarterly Journal of Economics 119 (3): 807-859. doi:10.1162/0033553041502153. 
  3. Rubin, Donald B. (2005). «Causal Inference Using Potential Outcomes». Journal of the American Statistical Association 100 (469): 322-331. doi:10.1198/016214504000001880. 
  4. Nyman, Pär (2017). «Door-to-door canvassing in the European elections: Evidence from a Swedish field experiment». Electoral Studies 45: 110-118. doi:10.1016/j.electstud.2016.12.002. 
  5. Broockman, David E.; Kalla, Joshua L.; Sekhon, Jasjeet S. (2017). «The Design of Field Experiments with Survey Outcomes: A Framework for Selecting More Efficient, Robust, and Ethical Designs». Political Analysis 25 (4): 435-464. doi:10.1017/pan.2017.27. 
  6. Harrison, G. W.; List, J. A. (2004). «Field experiments». Journal of Economic Literature 42 (4): 1009-1055. doi:10.1257/0022051043004577. 
  7. LaLonde, R. J. (1986). «Evaluating the econometric evaluations of training programs with experimental data». The American Economic Review 76 (4): 604-620. 
  8. Gordon, Brett R.; Zettelmeyer, Florian; Bhargava, Neha; Chapsky, Dan (2017). A Comparison of Approaches to Advertising Measurement: Evidence from Big Field Experiments at Facebook. doi:10.2139/ssrn.3033144. 
  9. Athey, Susan; Imbens, Guido (2016). «Recursive partitioning for heterogeneous causal effects: Table 1». Proceedings of the National Academy of Sciences 113 (27): 7353-7360. PMC 4941430. PMID 27382149. doi:10.1073/pnas.1510489113. 
  10. Scott, Steven L. (2010). «A modern Bayesian look at the multi-armed bandit». Applied Stochastic Models in Business and Industry 26 (6): 639-658. doi:10.1002/asmb.874. 
  11. Raj, V. (2017). «Taming non-stationary bandits: A Bayesian approach». MISSING LINK.. 
  12. Egami, Naoki (19 de julio de 2018). «Covariate Selection for Generalizing Experimental Results». Princeton.edu. Archivado desde el original el 10 de julio de 2020. Consultado el 8 de julio de 2020. 
  13. Blackwell, Matthew (2017). «Instrumental Variable Methods for Conditional Effects and Causal Interaction in Voter Mobilization Experiments». Journal of the American Statistical Association 112 (518): 590-599. doi:10.1080/01621459.2016.1246363. 
  14. Aronow, Peter M.; Carnegie, Allison (2013). «Beyond LATE: Estimation of the Average Treatment Effect with an Instrumental Variable». Political Analysis 21 (4): 492-506. doi:10.1093/pan/mpt013. 
  15. Aronow, P. M.; Samii, C. (2017). «Estimating average causal effects under general interference, with application to a social network experiment». The Annals of Applied Statistics 11 (4): 1912-1947. arXiv:1305.6156. doi:10.1214/16-AOAS1005. 
  16. Woertman, W.; de Hoop, E.; Moerbeek, M.; Zuidema, S. U.; Gerritsen, D. L.; Teerenstra, S. (2013). «Stepped wedge designs could reduce the required sample size in cluster randomized trials». Journal of Clinical Epidemiology 66 (7): 752-758. PMID 23523551. doi:10.1016/j.jclinepi.2013.01.009. 
  17. Tröhler, U. (2005). «Lind and scurvy: 1747 to 1795». Journal of the Royal Society of Medicine 98 (11): 519-522. PMC 1276007. PMID 16260808. doi:10.1177/014107680509801120. 
  18. Bertrand, Marianne; Mullainathan, Sendhil (2004). «Are Emily and Greg more employable than Lakisha and Jamal? A field experiment on labor market discrimination». American Economic Review 94 (4): 991-1013. doi:10.1257/0002828042002561. 
  19. Gneezy, Uri; List, John A (2006). «Putting behavioral economics to work: Testing for gift exchange in labor markets using field experiments». Econometrica 74 (5): 1365-1384. doi:10.1111/j.1468-0262.2006.00707.x. 
  20. Ahmed, Ali M; Hammarstedt, Mats (2008). «Discrimination in the rental housing market: A field experiment on the Internet». Journal of Urban Economics 64 (2): 362-372. doi:10.1016/j.jue.2008.02.004. 
  21. Edelman, Benjamin; Luca, Michael; Svirsky, Dan (2017). «Racial discrimination in the sharing economy: Evidence from a field experiment». American Economic Journal: Applied Economics 9 (2): 1-22. doi:10.1257/app.20160213. 
  22. Pager, Devah; Shepherd, Hana (2008). «The sociology of discrimination: Racial discrimination in employment, housing, credit, and consumer markets». Annual Review of Sociolgy 34: 181-209. PMC 2915460. PMID 20689680. doi:10.1146/annurev.soc.33.040406.131740. 
  23. Nesseler, Cornel; Carlos, Gomez-Gonzalez; Dietl, Helmut (2019). «What's in a name? Measuring access to social activities with a field experiment». Palgrave Communications 5: 1-7. doi:10.1057/s41599-019-0372-0. 
  24. Ashraf, Nava; Berry, James; Shapiro, Jesse M (2010). «Can higher prices stimulate product use? Evidence from a field experiment in Zambia». American Economic Review 100 (5): 2383-2413. doi:10.1257/aer.100.5.2383. 
  25. Karlan, Dean; List, John A (2007). «Does price matter in charitable giving? Evidence from a large-scale natural field experiment». American Economic Review 97 (5): 1774-1793. doi:10.1257/aer.97.5.1774. 
  26. Fryer Jr, Roland G (2014). «Injecting charter school best practices into traditional public schools: Evidence from field experiments». The Quarterly Journal of Economics 129 (3): 1355-1407. doi:10.1093/qje/qju011. 
  27. Field, Erica; Pande, Rohini (2008). «Repayment frequency and default in microfinance: evidence from India». Journal of the European Economic Association 6 (2–3): 501-509. doi:10.1162/JEEA.2008.6.2-3.501. 
  28. Ahmed, A. S. (1984). «Al-Beruni: The First Anthropologist». Rain (60): 9-10. doi:10.2307/3033407. 
  29. Fisher, R.A. (1937). The Design of Experiments. Oliver and Boyd Ltd. 
  30. Gosnell, Harold F. (1926). «An Experiment in the Stimulation of Voting». American Political Science Review 20 (4): 869-874. doi:10.1017/S0003055400110524.