Sesgo algorítmico

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda
Un gráfico de flujo que muestra las decisiones creadas por un motor de recomendación, circa 2001.[1]

El sesgo algorítmico ocurre cuándo un sistema informático refleja los valores de los humanos que están implicados en la codificación y recolección de datos usados para entrenar el algoritmo. El sesgo algorítmico se puede encontrar en todos lados, como en los resultados de los motores de búsqueda o en las redes sociales y pueden tener un gran impacto en temas como la privacidad o agravar sesgos sociales como los existentes respecto a razas, género, sexualidad o etnias. El estudio del sesgo algorítmico esta enfocado sobre todo en algoritmos que reflejan "discriminación sistemática e injusta". Este tipo de sesgos han empezado a ser tenidos en cuenta en marcos legales recientemente, como el Control de Protección de Datos Generales de la Unión Europea en 2018.

Tan pronto como los algoritmos expanden su capacidad de organizar la sociedad, la política, las instituciones, y el comportamiento, los sociólogos han empezado a preocuparse con las maneras en que los resultados no previstos y la manipulación de datos pueden impactar el mundo físico. Como los algoritmos son a menudo considerados neutros y sin sesgos, puede parecer que son mejores que los propios humanos, y en algunos casos, relevar trabajo en un algoritmo puede reducir el control humano sobre los resultados. Los sesgos pueden repercutir en los algoritmos teniendo como origen influencias culturales, sociales, o institucionales; debido a limitaciones técnicas de su diseño; o por ser utilizado en contextos no esperados en un principio o por usuarios que no se habían considerado en el diseño inicial del software.

Los sesgos algorítmicos han afectado a temas como los resultados de las elecciones. Los problemas de comprensión, investigación, y descubrimiento de sesgos en los algoritmos provienen de la naturaleza de estos, ya que los propietarios no suelen dejar acceder a su implementación, y aunque fuera así, muchas veces son demasiado complejos para entender como funcionan. Además, los algoritmos pueden cambiar, o responder a diferentes entradas de maneras que no pueden ser previstas o fácilmente reproducidas para su análisis. En muchos casos, incluso dentro de un solo sitio web o aplicación, no hay un solo algoritmo para examinar, si no un conjunto de procesos y entradas de datos interrelacionados.

Definiciones[editar]

Un esquema de 1969 sobre cómo un programa de ordenador sencillo realiza decisiones, ilustrando un algoritmo muy básico.

Los algoritmos son difíciles de definir, pero se pueden entender como conjuntos de instrucciones dentro de un ordenador que determinan cómo estos programas leen, recogen, procesan, y analizan datos para generar una salida legible.[2][3]:13 Los ordenadores más nuevos pueden procesar millones de estas instrucciones algorítmicas por segundo, lo cual ha impulsado el diseño y adopción de tecnologías como machine learning e inteligencia artificial.[4]:14–15 Analizando y procesando datos, los algoritmos son el corazón de los motores de búsqueda, redes sociales, motores de recomendación, venta al detalle on-line, publicidad on-line, y otros.[5][6][7][8][9][10]

Los científicos sociales contemporáneos están preocupados con procesos algorítmicos incluidos en el hardware y  software debido a su impacto político y social, y cuestionan la suposición de que un algoritmo es neutral.[11]:2[12]:563[13]:294[14]​ El término sesgo algorítmico describe errores sistemáticos y repetidos que crean resultados injustos, como dar privilegios a un grupo de usuarios por encima otros de forma arbitraria. Por ejemplo, un algoritmo de puntuación de crédito puede negar un préstamo sin ser injusto, si se fija únicamente en criterios financieros pertinentes. Si el algoritmo recomienda préstamos a un grupo de usuarios, pero niega préstamos a otro conjunto de usuarios casi idénticos basándose en criterios no relacionados, y si este comportamiento se puede repetir en distintas ocasiones, se puede decir que es un algoritmo con sesgos.:332 Estos sesgos pueden ser intencionados o involuntarios.:332

Métodos[editar]

El sesgo puede ser introducido a un algoritmo de varias maneras. Durante el montaje de una base de datos, el dato tiene que ser recogido, digitalizado, adaptado, e introducido según un diseño humano.[15]:3 Luego, los programadores asignan prioridades, o jerarquías, sobre cómo un programa evalúa y ordena los datos. Esto requiere decisiones humanas sobre cómo el dato es categorizado, y qué dato es incluido o descartado.:4 Algunos algoritmos recogen sus propios datos basados en  criterios de selección humanos, los cuales también pueden reflejar sesgos de los diseñadores.:8 Otros algoritmos pueden reforzar estereotipos y preferencias cuando procesan y muestran datos relevantes para los humanos, por ejemplo, al seleccionar información basada en elecciones anteriores de un usuario o grupo de usuarios similares.:6

Más allá de reunir y procesar datos, los sesgos pueden surgir como resultado del diseño.[16]​ Por ejemplo, algoritmos que usan ordenación en los datos, aquellos que determinan la asignación de recursos o escrutinio, o los que clasifican e identifican usuarios, los cuales pueden discriminar a un grupo cuándo calculan el riesgo basado en datos de usuarios similares.[17]:36 Por otro lado, los motores de recomendación que asocian a los usuarios con otros usuarios similares, o que infieren diferentes rasgos, podrían confiar en datos inexactos que reflejan estereotipos étnicos,de género, socio-económicos, o raciales. Otro ejemplo surgiría de determinar los criterios que dicen que incluir y excluir de los resultados. Estos criterios podrían provocar resultados inesperados en las búsquedas, como un software de recomendaciones de compañías de vuelos  que omite los vuelos de compañías que no se patrocinan igual que el resto. Los algoritmos también pueden mostrar un sesgo de incertidumbre, ofreciendo valoraciones más seguras cuándo los conjuntos de datos son más grandes. Esto puede afectar a procesos algorítmicos que analizan muestras muy grandes que hacen se ignoren otros datos o que queden en segundo plano.[18]:4

Referencias[editar]

  1. Jacobi, Jennifer (13 de septiembre de 2001). «Patent #US2001021914». Espacenet. Consultado el 4 de julio de 2018. 
  2. Striphas, Ted. «What is an Algorithm? – Culture Digitally». culturedigitally.org. Consultado el 20 de noviembre de 2017. 
  3. Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introduction to algorithms (3rd edición). Cambridge, Mass.: MIT Press. p. 5. ISBN 978-0-262-03384-8. 
  4. Kitchin, Rob (25 de febrero de 2016). «Thinking critically about and researching algorithms». Information, Communication & Society 20 (1): 14-29. doi:10.1080/1369118X.2016.1154087. Consultado el 19 de noviembre de 2017. 
  5. Google. «How Google Search Works». Consultado el 19 de noviembre de 2017.  |autor= y |apellido= redundantes (ayuda)|autor= y |apellido= redundantes (ayuda)
  6. Luckerson, Victor. «Here's How Your Facebook News Feed Actually Works». TIME.com. Consultado el 19 de noviembre de 2017. 
  7. Vanderbilt, Tom (7 de agosto de 2013). «The Science Behind the Netflix Algorithms That Decide What You'll Watch Next». Wired. Consultado el 19 de noviembre de 2017. 
  8. Angwin, Julia (20 de septiembre de 2016). «Amazon Says It Puts Customers First. But Its Pricing Algorithm Doesn't — ProPublica». ProPublica (en inglés estadounidense). Consultado el 19 de noviembre de 2017. 
  9. Livingstone, Rob. «The future of online advertising is big data and algorithms». The Conversation (en inglés). Consultado el 19 de noviembre de 2017. 
  10. Hickman, Leo (1 de julio de 2013). «How algorithms rule the world». Consultado el 19 de noviembre de 2017. 
  11. Seaver, Nick. «Knowing Algorithms». Media in Transition 8, Cambridge, MA, April 2013. Consultado el 18 de noviembre de 2017. 
  12. Graham, Stephen D.N. (July 2016). «Software-sorted geographies». Progress in Human Geography 29 (5): 562-580. doi:10.1191/0309132505ph568oa. 
  13. Tewell, Eamon (4 de abril de 2016). «Toward the Resistant Reading of Information: Google, Resistant Spectatorship, and Critical Information Literacy». Portal: Libraries and the Academy 16 (2): 289-310. ISSN 1530-7131. Consultado el 19 de noviembre de 2017. 
  14. Crawford, Kate (1 de abril de 2013). «The Hidden Biases in Big Data». Harvard Business Review. 
  15. Gillespie, Tarleton; Boczkowski, Pablo; Foot, Kristin (2014). Media Technologies. Cambridge: MIT Press. pp. 1-30. ISBN 9780262525374. 
  16. Diakopoulas, Nicholas. «Algorithmic Accountability: On the Investigation of Black Boxes |». towcenter.org (en inglés). Consultado el 19 de noviembre de 2017. 
  17. Lipartito, Kenneth (6 de enero de 2011). «The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today». SSRN Electronic Journal. doi:10.2139/ssrn.1736283. 
  18. Goodman, Bryce; Flaxman, Seth (2017). «EU regulations on algorithmic decision-making and a "right to explanation"». AI Magazine 38 (3): 50. doi:10.1609/aimag.v38i3.2741.