Sesgo algorítmico

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda
Un gráfico de flujo que muestra las decisiones creadas por un motor de recomendación, circa 2001.[1]

El sesgo algorítmico ocurre cuando un sistema informático refleja los valores de los humanos que están implicados en la codificación y recolección de datos usados para entrenar el algoritmo. El sesgo algorítmico se puede encontrar en todos lados, como en los resultados de los motores de búsqueda o en las redes sociales y pueden tener un gran impacto en temas como la privacidad o agravar sesgos sociales como los existentes respecto a razas, género, sexualidad o etnias. El estudio del sesgo algorítmico esta enfocado sobre todo en algoritmos que reflejan "discriminación sistemática e injusta". Este tipo de sesgos han empezado a ser tenidos en cuenta en marcos legales recientemente, como el Control de Protección de Datos Generales de la Unión Europea en 2018.

Tan pronto como los algoritmos expanden su capacidad de organizar la sociedad, la política, las instituciones, y el comportamiento, los sociólogos han empezado a preocuparse con las maneras en que los resultados no previstos y la manipulación de datos pueden impactar el mundo físico. Como los algoritmos son a menudo considerados neutros y sin sesgos, puede parecer que son mejores que los propios humanos, y en algunos casos, relevar trabajo en un algoritmo puede reducir el control humano sobre los resultados. Los sesgos pueden repercutir en los algoritmos teniendo como origen influencias culturales, sociales, o institucionales; debido a limitaciones técnicas de su diseño; o por ser utilizado en contextos no esperados en un principio o por usuarios que no se habían considerado en el diseño inicial del software.

Los sesgos algorítmicos han afectado a temas como los resultados de las elecciones. Los problemas de comprensión, investigación, y descubrimiento de sesgos en los algoritmos provienen de la naturaleza de estos, ya que los propietarios no suelen dejar acceder a su implementación, y aunque fuera así, muchas veces son demasiado complejos para entender como funcionan. Además, los algoritmos pueden cambiar, o responder a diferentes entradas de maneras que no pueden ser previstas o fácilmente reproducidas para su análisis. En muchos casos, incluso dentro de un solo sitio web o aplicación, no hay un solo algoritmo para examinar, si no un conjunto de procesos y entradas de datos interrelacionados.

Definiciones[editar]

Un esquema de 1969 sobre cómo un programa de ordenador sencillo realiza decisiones, ilustrando un algoritmo muy básico.

Los algoritmos son difíciles de definir, pero se pueden entender como conjuntos de instrucciones dentro de un ordenador que determinan cómo estos programas leen, recogen, procesan, y analizan datos para generar una salida legible.[2][3]:13 Los ordenadores más nuevos pueden procesar millones de estas instrucciones algorítmicas por segundo, lo cual ha impulsado el diseño y adopción de tecnologías como machine learning e inteligencia artificial.[4]:14–15 Analizando y procesando datos, los algoritmos son el corazón de los motores de búsqueda, redes sociales, motores de recomendación, venta al detalle en línea, publicidad online, y otros.[5][6][7][8][9][10]

Los científicos sociales contemporáneos están preocupados con procesos algorítmicos incluidos en el hardware y  software debido a su impacto político y social, y cuestionan la suposición de que un algoritmo es neutral.[11]:2[12]:563[13]:294[14]​ El término sesgo algorítmico describe errores sistemáticos y repetidos que crean resultados injustos, como dar privilegios a un grupo de usuarios por encima otros de forma arbitraria. Por ejemplo, un algoritmo de puntuación de crédito puede negar un préstamo sin ser injusto, si se fija únicamente en criterios financieros pertinentes. Si el algoritmo recomienda préstamos a un grupo de usuarios, pero niega préstamos a otro conjunto de usuarios casi idénticos basándose en criterios no relacionados, y si este comportamiento se puede repetir en distintas ocasiones, se puede decir que es un algoritmo con sesgos.:332 Estos sesgos pueden ser intencionados o involuntarios.:332

Métodos[editar]

El sesgo puede ser introducido a un algoritmo de varias maneras. Durante el montaje de una base de datos, el dato tiene que ser recogido, digitalizado, adaptado, e introducido según un diseño humano.[15]:3 Luego, los programadores asignan prioridades, o jerarquías, sobre cómo un programa evalúa y ordena los datos. Esto requiere decisiones humanas sobre cómo el dato es categorizado, y qué dato es incluido o descartado.[15]​ Algunos algoritmos recogen sus propios datos basados en  criterios de selección humanos, los cuales también pueden reflejar sesgos de los diseñadores.[15]​ Otros algoritmos pueden reforzar estereotipos y preferencias cuando procesan y muestran datos relevantes para los humanos, por ejemplo, al seleccionar información basada en elecciones anteriores de un usuario o grupo de usuarios similares.[15]

Más allá de reunir y procesar datos, los sesgos pueden surgir como resultado del diseño.[16]​ Por ejemplo, algoritmos que usan ordenación en los datos, aquellos que determinan la asignación de recursos o escrutinio, o los que clasifican e identifican usuarios, los cuales pueden discriminar a un grupo cuándo calculan el riesgo basado en datos de usuarios similares.[17]:36 Por otro lado, los motores de recomendación que asocian a los usuarios con otros usuarios similares, o que infieren diferentes rasgos, podrían confiar en datos inexactos que reflejan estereotipos étnicos,de género, socio-económicos, o raciales. Otro ejemplo surgiría de determinar los criterios que dicen que incluir y excluir de los resultados. Estos criterios podrían provocar resultados inesperados en las búsquedas, como un software de recomendaciones de compañías de vuelos  que omite los vuelos de compañías que no se patrocinan igual que el resto.[16]​ Los algoritmos también pueden mostrar un sesgo de incertidumbre, ofreciendo valoraciones más seguras cuándo los conjuntos de datos son más grandes. Esto puede afectar a procesos algorítmicos que analizan muestras muy grandes, que hacen se ignoren los datos de poblaciones poco representadas.[18]:4

Historia[editar]

Críticas iniciales[editar]

Esta tarjeta era usada para cargar software en una antigua unidad central. Cada byte (la letra 'A', por ejemplo) es introducido perforando agujeros. Aunque los ordenadores actuales son más complejos, reflejan este proceso humano de toma de decisiones al recopilar y procesar datos.[19][20]

Los primeros programas de ordenador fueron diseñados para imitar el razonamiento y las deducciones humanas, y se consideró que funcionaban cuando llegaron a reproducir esa lógica humana de manera exitosa y consistente. En su libro de 1976 (Computer Power and Human Reason), el pionero de la Inteligencia Artificial Joseph Weizenbaum sugirió que el sesgo podría surgir tanto de los datos utilizados en un programa como de la forma en que se implementa un programa.[19]:149

Weizenbaum describió los programas como secuencias de reglas creadas por humanos para que las siga una computadora. Al seguir esas reglas consistentemente, tales programas "encarnan la ley"[19]:40, es decir, hacen cumplir una forma específica de resolver problemas. Las reglas que sigue una computadora se basan en las suposiciones de un programador sobre cómo se pueden resolver estos problemas. Esto significa que el código podría incorporar la imaginación del programador y sus ideas de cómo funciona el mundo, incluyendo sus prejuicios y expectativas.[19]:109 Mientras que un programa puede incorporar prejuicios de esta manera, Weizenbaum también señaló que cualquier dato alimentado a una máquina refleja adicionalmente los "procesos humanos de toma de decisiones" a medida que se van seleccionando los datos.[19]:70,105

Finalmente, señaló que las máquinas también podrían transmitir buena información con consecuencias imprevistas si los usuarios no tienen claro cómo interpretar los resultados.[19]:65 Weizenbaum advirtió en contra de confiar en las decisiones tomadas por los programas que el usuario no entiende, comparando esa fe con la de un turista que puede encontrar su camino a una habitación de un hotel girando a la izquierda o a la derecha jugando a cara o cruz. El turista no tiene base para entender cómo o por qué llegó a su destino, y el hecho de llegar no significa que el proceso sea preciso o confiable.[19]:226

Uno de los primeros ejemplos de sesgo algorítmico resultó en que hasta 60 mujeres y personas pertenecientes a minorías étnicas se les negara la entrada a la Escuela de Medicina del Hospital St. George's cada año entre 1982 y 1986, basado en la implementación de un nuevo sistema de evaluación por ordenador que negaba la entrada a mujeres y hombres con "nombres que suenan extranjeros" basándose en las tendencias históricas de las admisiones.[21]

Críticas actuales y respuestas[editar]

Pese a que los algoritmos bien diseñados frecuentemente determinan resultados que son igualmente (o más) equitativos que las decisiones de seres humanos, aún ocurren casos de sesgo, y son difíciles de predecir y analizar.[22]​ La complejidad de analizar el sesgo algorítmico ha crecido a la vez que la complejidad de los programas y su diseño. Las decisiones que hace un diseñador o un equipo de diseñadores pueden ser oscurecidas entre las muchas partes de código creadas para un solo programa; a lo largo del tiempo estas decisiones y su impacto colectivo en la salida del programa se puede olvidar.[23]​ En teoría, estos sesgos pueden crear nuevos patrones de conducta, o “scripts”, en relación a tecnologías específicas según el código interactúa con otros elementos de la sociedad.[24]​ Los sesgos también pueden afectar cómo la sociedad se forma alrededor de puntos de datos que los algoritmos requieren. Por ejemplo, si los datos muestran un gran número de arrestos en una zona particular, un algoritmo podría asignar más patrullas de policía a esa zona, lo que puede llevar a más arrestos.[25]

Las decisiones de programas algorítmicos pueden verse como más autoritativas que las decisiones de los seres humanos que se supone que asisten[26]​, un proceso descrito por el escritor Clay Shirky como “autoridad algorítmica”.[27]​ Shirky usa el término para describir “la decisión de considerar como autoritativo un proceso no gestionado de extraer valor de fuentes diversas y poco fiables”, como los resultados de búsqueda.[27]​ Esta neutralidad también puede malinterpretarse por el lenguaje usado por los expertos y los medios de comunicación cuando los resultados son presentados al público. Por ejemplo, una lista de noticias seleccionada y presentada como “de moda” o “popular” puede ser creada basándose en criterios bastante más amplios que su popularidad.[15]

Por su conveniencia y autoridad, los algoritmos son teorizados como un medio de delegar la responsabilidad lejos de los humanos.[26][28]​ Esto puede tener el efecto de reducir opciones alternativas, compromisos o flexibilidad.[26]​ El sociólogo Scott Lash ha criticado los algoritmos como una nueva forma de “poder generativo”, dado que son un medio virtual de generar fines reales. Donde previamente el comportamiento humano generaba datos para ser recogidos y estudiados, los algoritmos potentes podrían dar forma y definir los comportamientos humanos.[29]

Las preocupaciones sobre el impacto de los algoritmos en la sociedad han llevado a la creación de grupos de trabajo en organizaciones como Google y Microsoft, las cuales han cocreado un grupo de trabajo llamado Fairness, Accountability and Transparency in Machine Learning.[30]​ Entre algunas ideas de Google se incluyen comunidades que patrullan los resultados de algoritmos y votan por controlar o restringir los resultados que consideran que tienen consecuencias negativas.[30]​ En los últimos años, el estudio de Fairness, Accountability and Transparency (FAT) de los algoritmos ha surgido como un área interdisciplinaria de investigación con una conferencia anual llamada FAT.[31]

Tipos[editar]

Preexistente[editar]

Un sesgo preexistentes en un algoritmo es consecuencia de ideologías sociales e institucionales subyacentes. Estas ideas pueden influir o crear sesgos personales en los diseñadores o programadores. Dichos perjuicios pueden ser explícitos y conscientes, o implícitos e inconscientes.[13][32]​ Datos de entrada mal seleccionados influirán en los resultados creados por las máquinas.[20]​ La codificando de un sesgo preexistentes en el software puede preservar el sesgo social e institucional, y sin ninguna corrección podría replicarse en futuros usos de ese algoritmo.[23][28]

Un ejemplo de este tipo de sesgo es el Programa de la Ley de Nacionalidad Británica, diseñado para automatizar la evolución de los nuevos ciudadanos de Reino Unido a partir de 1981.[32]​ El programa reflejó con precisión los principios de la ley, que establecían que "un hombre es el padre solo de sus hijos legítimos, mientras que una mujer es la madre de todos sus hijos, legítimos o no”.[32][33]​ En su intento de transferir una lógica particular a un proceso algorítmico, el BNAP inscribió la lógica de la Ley de Nacionalidad Británica en su algoritmo, que la perpetuaría incluso si la ley fuera finalmente derogada.[32]

Técnico[editar]

Se descubrió que el software de reconocimiento facial utilizado junto con las cámaras de vigilancia muestra un sesgo al reconocer rostros asiáticos y negros sobre rostros blancos.[25]

El sesgo técnico surge a través de las limitaciones de un programa, la potencia computacional, su diseño u otra restricción en el sistema.[32]​ Tal sesgo también puede ser una restricción de diseño, por ejemplo, se puede entender que un motor de búsqueda que muestra tres resultados por pantalla privilegia los tres primeros resultados un poco más que los tres siguientes, como en una pantalla de precios de una aerolínea.[32]​ Otro caso es el software que se basa en la aleatoriedad para distribuciones justas de resultados. Si el mecanismo de generación de números aleatorios no es realmente aleatorio, puede introducir sesgos, por ejemplo, al sesgar las selecciones hacia los elementos al final o al principio de una lista.[32]

Un algoritmo descontextualizado utiliza información no relacionada para ordenar resultados, por ejemplo, un algoritmo de fijación de precios de vuelo que clasifica los resultados por orden alfabético estaría sesgado a favor de American Airlines sobre United Airlines.[32]​ También puede aplicarse lo contrario, en el que los resultados se evalúan en contextos diferentes de los que se recopilan. Los datos pueden recopilarse sin un contexto externo crucial: por ejemplo, cuando el software de reconocimiento facial es utilizado por cámaras de vigilancia, pero evaluado por personal remoto en otro país o región, o evaluado por algoritmos no humanos sin conocimiento de lo que ocurre más allá del campo visual de la cámara. Esto podría crear una comprensión incompleta de la escena de un crimen, por ejemplo, confundir a los espectadores con quienes cometen el crimen.[12]

Por último, se puede crear un sesgo técnico al intentar formalizar las decisiones en pasos concretos bajo el supuesto de que el comportamiento humano funciona de la misma manera. Por ejemplo, el software valora puntos de datos para determinar si un acusado debe aceptar un acuerdo de culpabilidad, mientras ignora el impacto de la emoción en un jurado.[32]​ Otro resultado no deseado de esta forma de sesgo se encontró en el software de detección de plagio Turnitin, que compara los textos escritos por los estudiantes con la información que se encuentra en línea y devuelve una puntuación de probabilidad de que el trabajo del estudiante sea una copia. Debido a que el software compara cadenas largas de texto, es más probable que identifique hablantes no nativos de inglés que hablantes nativos, ya que este último grupo podría cambiar mejor las palabras individuales, dividir cadenas de texto plagiado u oscurecer pasajes copiados a través de sinónimos. Debido a que es más fácil para los hablantes nativos evadir la detección como resultado de las limitaciones técnicas del software, esto crea un escenario en el que Turnitin identifica a los hablantes extranjeros de inglés para plagio mientras permite que más hablantes nativos evadan la detección.[26]

Emergente[editar]

El sesgo emergente es el resultado del uso y confianza en algoritmos de contextos nuevos o imprevistos.[34]​ Los algoritmos pueden no haber sido ajustados para considerar nuevas formas de conocimiento, como nuevos medicamentos o descubrimientos médicos, nuevas leyes, modelos de negocio o normas culturales que cambian.[34]​ Esto puede excluir grupos mediante la tecnología, sin proporcionar contornos claros para entender quién es responsable de su marginación.[25]​ De manera similar, pueden emerger problemas al entrenar datos (los ejemplos de los que “se alimenta” una máquina, por los que modela conclusiones concretas) que no se corresponden con contextos que un algoritmo encuentra en el mundo real. [35]

En 1990, un ejemplo de sesgo emergente se detectó en el software utilizado para asignar estudiantes de medicina en EE. UU. a residencias, el National Residency Match Program (NRMP).[34]​ El algoritmo se diseñó en un momento en el que pocas parejas casadas buscaban residencia juntos. Según fueron entrando más mujeres a las escuelas de medicina, más probable era que los estudiantes solicitaran residencia junto a su pareja. El proceso pedía a cada candidato que aportara una lista de preferencias de ubicación alrededor de EE. UU., que después era ordenada y asignada cuando un hospital y un candidato acordaban un emparejamiento. En el caso de parejas casadas donde ambos buscaban residencia, el algoritmo consideraba las elecciones de ubicación de la persona más altamente valorada. El resultado era que con frecuencia se asignaban escuelas más preferidas al primer integrante de la pareja y menos preferidas al segundo, en lugar de buscar compromisos en preferencias de ubicación.[34]

Otros tipos de sesgo emergente son:

Correlaciones[editar]

Correlaciones impredecibles pueden surgir cuando amplios conjuntos de datos son comparados entre sí. Por ejemplo, datos sobre patrones de navegación en la web pueden corresponderse con señales que marcan datos sensibles (como raza u orientación sexual). Seleccionando de acuerdo a cierto comportamiento o patrones, el efecto final sería casi idéntico a discriminación por el uso de datos directos de raza u orientación sexual.[18]​ En otros casos, el algoritmo extrae conclusiones de correlaciones, sin ser capaz de entender esas correlaciones. Por ejemplo, un programa de clasificación dio menor prioridad a asmáticos que padecieran neumonía que a asmáticos que no la padecieran. El algoritmo hizo esto ya que simplemente comparaba cotas de supervivencia: los asmáticos con neumonía tenían un riesgo mayor. Históricamente, por la misma razón, los hospitales típicamente dan a dichos asmáticos el mejor y más inmediato cuidado.[36]

Usos imprevistos[editar]

El sesgo emergente puede ocurrir cuando un algoritmo se usa por público imprevisto. Por ejemplo, las máquinas pueden requerir que los usuarios sepan leer, escribir o entender números, o relacionarse con una interfaz usando metáforas que no entienden.[34]​ Estas exclusiones pueden convertirse en acentuadas según la tecnología sesgada o excluyente se va integrando más en la sociedad.[25]

Además de la exclusión, usos imprevistos pueden emerger por parte del usuario que confía en el software más que en su propio conocimiento. Por ejemplo, un grupo de usuarios imprevisto llevó a sesgo algorítmico en el Reino Unido, cuando ingenieros informáticos y abogados especializados en la inmigración crearon el British National Act Program como prueba de concepto con el fin de examinar de forma correcta para obtener la nacionalidad británica. Los diseñadores tenían acceso a mayores conocimientos legales que los usuarios en oficinas de inmigración, cuyo entendimiento tanto de software como de ley de inmigración seguramente fuera tosco. Los agentes que administraban las preguntas confiaban por completo en el software, lo que excluía distintos métodos de obtener la nacionalidad, y usaban el software incluso después de que los nuevos casos de leyes e interpretaciones legales llevaran a que el algoritmo estuviera anticuado. Como resultado de diseñar un algoritmo para los usuarios que presuntamente era inteligente en cuanto a la legalidad, el algoritmo del software llevó indirectamente a sesgo a favor de los candidatos que cumplían un conjunto restringido de criterios legales en lugar de los criterios más generales de la ley de inmigración.[34]

Ciclos de realimentación[editar]

El sesgo emergente también podría crear un ciclo de realimentación, o recursión, si los datos recogidos para un algoritmo resultan ser respuestas reales que se vuelven a introducir al algoritmo.[37][38]​ Por ejemplo, simulaciones de software de policía predictiva (PredPol) desarrollados en Oakland, California, sugerían una presencia policial mayor en barrios de gente de raza negra basándose en los datos de crímenes denunciados por la gente.[39]​ La simulación mostraba que la gente denunciaba crímenes basándose en si veían coches de policía, independientemente de lo que la policía hiciera. La simulación interpretó los avistamientos de coches de policía para modelar sus predicciones de crimen, y asignaba por tanto aún más presencia policial en dichos barrios. La institución Human Rights Data Analysis Group, que llevó a cabo la simulación, advirtió que en lugares donde la discriminación racial favorece los arrestos, estos ciclos de realimentación podrían incrementar la discriminación racial en la policía.[38]

Los sistemas de recomendación como los que se usan para recomendar vídeos en línea o artículos de noticias pueden crear ciclos de realimentación.[40]​ Cuando los usuarios hacen clic en contenido sugerido por algoritmos, se influencia el siguiente conjunto de sugerencias. Con el paso del tiempo esto puede llevar a los usuarios a entrar en un filtro burbuja y no ser conscientes de contenido importante o útil.[41][42]

Impacto[editar]

Influencias comerciales[editar]

Los algoritmos corporativos pueden estar sesgados para favorecer de manera invisible los acuerdos financieros o los acuerdos entre empresas, sin el conocimiento de un usuario que pueda confundir el algoritmo como imparcial. Por ejemplo, American Airlines creó un algoritmo de búsqueda de vuelos en la década de 1980. El software presentaba una gama de vuelos de varias aerolíneas a los clientes, pero sopesaba los factores que destacaban sus propios vuelos, independientemente del precio o la conveniencia. En testimonio ante el Congreso de los Estados Unidos, el presidente de la aerolínea declaró abiertamente que el sistema fue creado con la intención de obtener una ventaja competitiva a través de un trato preferencial.[43]:2[32]:331

En un artículo de 1998 que describe a Google, se demostró que los fundadores de la empresa adoptaron una política de transparencia en los resultados de las búsquedas sobre la colocación remunerada, argumentando que "los motores de búsqueda financiados por publicidad estarán intrínsecamente sesgados hacia los anunciantes y alejados de las necesidades de los consumidores"[44]​, lo que constituiría una manipulación "invisible" del usuario.[43]:3

Comportamiento de voto[editar]

Una serie de estudios sobre votantes indecisos en los Estados Unidos y en la India descubrieron que los resultados de los motores de búsqueda podían cambiar los resultados de la votación en aproximadamente un 20%. Los investigadores concluyeron que los candidatos "no tiene manera de competir" si un algoritmo, con o sin intención, aumenta los resultados de búsqueda de páginas para un candidato rival.[45]​ Los usuarios de Facebook que vieron mensajes relacionados con la votación tenían más probabilidades de votar. En 2010, una prueba aleatoria con usuarios de Facebook mostró un aumento del 20% (340,000 votos) entre los usuarios que vieron mensajes que promovían el voto, así como imágenes de sus amigos que habían votado.[46]​ El experto en legislación Jonathan Zittrain advierte que esto podría crear un "amaño digital" en las elecciones, "la presentación selectiva de información por un intermediario para cumplir con sus intereses, en lugar de servir a los usuarios", si se manipula intencionalmente.[47]

Discriminación de género[editar]

En 2016, se descubrió que la red social de profesionales LinkedIn recomendaba variaciones masculinas de los nombres de las mujeres en respuesta a las consultas de búsqueda. El motor de búsqueda no hizo recomendaciones similares en la búsqueda de nombres masculinos. Por ejemplo, "Andrea" mostraba un mensaje preguntando si los usuarios querían decir "Andrew", pero las consultas por "Andrew" no preguntaban si los usuarios querían encontrar a "Andrea". La compañía dijo que esto fue el resultado de un análisis de las interacciones de los usuarios con el buscador.[48]

En 2012, la franquicia de tiendas por departamentos Target fue citada por recopilar datos para inferir cuándo las mujeres estaban embarazadas, incluso si no lo habían anunciado, y luego compartir esa información con sus socios de mercadeo.[49]:94[50]​ Debido a que los datos habían sido pronosticados, en lugar de ser observados o reportados directamente, la compañía no tenía la obligación legal de proteger la privacidad de esos clientes.[49]:98

Los algoritmos de búsqueda web también han sido acusados de ser sesgados. Los resultados de Google pueden dar prioridad al contenido pornográfico en términos de búsqueda relacionados con la sexualidad, por ejemplo, "lesbiana". Este sesgo se extiende al motor de búsqueda que muestra contenido popular pero sexualizado en búsquedas neutrales. Por ejemplo, los artículos "Top 25 Sexiest Women Athletes" (Las 25 mujeres atletas más sexys) aparecen como resultados de primera página en las búsquedas de "mujeres atletas"[51]:31. En 2017, Google ajustó estos resultados junto con otros relacionados con opiniones racistas, abuso infantil y pornografía, y otros contenidos perturbadores y ofensivos.[52]​ Otros ejemplos incluyen la exhibición de trabajos con mejor remuneración a los candidatos masculinos en los sitios web de búsqueda de empleo.[53]

En 2018, Amazon apagó un sistema que desarrolló para filtrar las solicitudes de empleo cuando se dieron cuenta de que estaba sesgado en contra de las mujeres.[54]

Discriminación racial y étnica[editar]

Los algoritmos se han criticado como método para tapar los prejuicios raciales a la hora de decidir.[55]​ Debido a como ciertas razas y grupos étnicos fueron tratados en el pasado, la información actual puede contener ciertos sesgos ocultos. Por ejemplo, gente de raza negra son más proclives a recibir sentencias más largas que gente de raza blanca, las cuales cometieron el mismo delito.[56][57]​ Esto puede suponer que un sistema amplíe los sesgos originales en los datos.

Un ejemplo es el uso de evaluaciones de riesgos en sentencias penales en los Estados Unidos y audiencias de libertad condicional, donde a los jueces se les presentaba mediante un algoritmo, el riesgo de que un preso reincidiese en un crimen.[58]​ El periodo que comprende 1920 y 1970, la nacionalidad del padre de un criminal se tenía en cuenta en dichas evaluaciones de riesgo.[59]​ A día de hoy, estos resultados se comparten con jueces en Arizona, Colorado, Delaware, Kentucky, Louisiana, Oklahoma, Virginia, Washington y Wisconsin. Una investigación independiente por ProPublica, descubrió que estos resultados obtenidos eran inexactos en el 80% de los casos y desproporcionadamente sesgados por sugerir que personas negras tenían un 77% más de probabilidades de reincidir que una persona blanca.[58]

En 2015, Google se disculpó cuando personas negras se quejaron de que el algoritmo de identificación de imágenes en la aplicación de Fotos los identificaba como gorilas.[60]​ En 2010, las cámaras Nikon fueron criticadas debido a que su algoritmo de identificación preguntaba constantemente a los usuarios asiáticos si estaban parpadeando.[61]​ Estos ejemplos son producto del sesgo en el conjunto de datos biométricos.[60]​ Dichos datos biométricos se obtienen de aspectos del cuerpo, incluyendo las características raciales observadas, las cuales pueden entonces transferirse en puntos de datos.[55]​ La tecnología de reconocimiento de voz puede tener diferentes exactitudes dependiendo del acento del usuario. Esto se puede deber a la falta de datos de entrenamiento para usuarios de dicho acento.[62]

Los datos biométricos sobre la raza pueden también inferirse en lugar de observarse. Por ejemplo, en 2012 un estudio demostró que los nombre asociados con las personas negras eran más proclives a devolver resultados de búsqueda relacionados con arrestos, independientemente de si hay o no un registro policial para individuos con ese nombre.[63]

Un estudio sobre “Riesgo, Raza y Reincidencia: Sesgo Predictivo e Impacto Dispar” alegó que existía una probabilidad el doble de mayor (45% contra 23%) de que personas negras fueran clasificadas de mayor riesgo incluso después de haber permanecido durante un periodo de dos años sin ninguna reincidencia documentada.[64]

En 2019 un estudio de investigación reveló que un algoritmo de atención médica vendido por Optum favorecía a pacientes blancos por delante de pacientes negros, incluso estos estando más enfermos. El algoritmo predice cuánto costará el sistema de atención médica en el futuro. Sin embargo, el coste no es neutral con respecto a la raza, debido a que los pacientes negros incurrieron en aproximadamente 1.800$ menos en costes médicos por año que los pacientes blancos con el mismo número de problemas crónicos, lo que llevó al algoritmo a calificar a dichos pacientes blancos a tener el mismo riesgo de padecer ciertos problemas de salud en el futuro que los pacientes negros, los cuales sufrían significativamente de más enfermedades.[65]

Discurso de odio en línea[editar]

En 2017 un algoritmo de Facebook diseñado para eliminar el discurso de odio en línea en favor de los hombres blancos frente a los negros a la hora de juzgar de manera objetiva el contenido, según documentos internos de Facebook.[66]​ El algoritmo, el cual es una combinación de programas informáticos y revisión humana, fue creado para proteger amplias categorías en lugar de subcategorías. Por ejemplo, publicaciones en contra de los “musulmanes” sería bloqueadas, mientras que aquellas que denunciaban a los “musulmanes radicales” sí serían permitidas. Un resultado inesperado del algoritmo es que permite el discurso de odio contra los niños negros, ya que denuncian la subcategoría de “niños” de los negros, en lugar de “todos los negros”, mientras que “todos los hombres blancos” daría lugar a un bloqueo, debido a que blancos y hombres no son considerados una subcategoría.[66]​ Además, se encontró que Facebook permitía a compradores de anuncios de dirigirse a “antijudíos” como una categoría de usuarios, que, según la compañía, fue resultado de los datos y los algoritmos usados. La compañía también permitió a los compradores de anuncios impedir que los afroamericanos vean anuncios de viviendas.[67]

Vigilancia[editar]

El software que contienen las cámaras de vigilancia puede considerarse intrínsecamente político debido a que requiere algoritmos para distinguir comportamientos normales y anormales, y determinar quien pertenece a ciertos lugares en ciertos momentos.[12]​ La habilidad de dichos algoritmos de reconocer rostros de un espectro racial se ha demostrado que esta limitado por la diversidad racial de las imágenes en su base de datos de entrenamiento; Si la mayoría de las imágenes pertenecen a una raza o género, el software es mejor a la hora de reconocer otros miembros de esa raza o género.[68]​ Un análisis de software de 2002 utilizado para identificar individuos en imágenes de CCTV encontró varios ejemplos de predisposición cuando se ejecutan con las bases de datos de delincuentes. el software identificaba con más frecuencia a los hombres que a las mujeres, a las personas mayores más que a las jóvenes y a asiáticos, afroamericanos y otras razas con más frecuencia que a los blancos.[25]​ Otros estudios sobre el software de reconocimientos han encontrado lo contrario cuando se entrena con bases de datos de no criminales, siendo el software el menos preciso para identificar a las mujeres de pieles más oscuras.[69]

Discriminación sexual[editar]

En 2011, usuarios de la aplicación de citas para homosexuales Grindr reportaron que el algoritmo de recomendación de Google Play estaba vinculando a Grindr con aplicaciones diseñadas para encontrar delincuentes sexuales, que según los críticos relacionaban incorrectamente la homosexualidad con la pedofilia. El escritor Mike Ananny criticó esta asociación en The Atlantic, argumentando que tales asociaciones estigmatizaron aún más a los hombres homosexuales.[70]​ En 2009, la compañía de comercio electrónico Amazon anuló 57.000 libros después de que un cambio algorítmico expandiese su lista negra de “contenido para adultos” para incluir cualquier libro que abordase temas de sexualidad o gay, como la novela aclamada por la crítica Brokeback Mountain.[71][72]

En 2019 se descubrió que, en Facebook, las búsquedas de “fotos de mis amigas” arrojaron sugerencias como “en bikini” o “en la playa”. En contraste, las búsquedas de “fotos de mis amigos” no arrojaron resultados.[73]

Google Search[editar]

Estos resultados muestran que muestran que la sociedad en su conjunto tiene una amplia gama de ideas sexistas sobre las mujeres. Aunque los usuarios son los que generan estos resultados en la parte superior de la página, Google no ha logrado eliminar los comentarios sexistas y racistas. En Algoritmos de Opresión,[74]Safiya Noble señala un ejemplo cuando realizas la búsqueda “chicas negras”. Una mujer estaba buscando en Internet actividades para entretener a un preadolescente y a sus primos de la misma edad. Después de buscar “chicas negras”, imágenes de pornografía llenaron la pantalla. Estos resultados son una correlación directa con los viejos medios en una nueva arquitectura de medios. Debido al algoritmo de Google, no puede borrar las páginas a menos que se consideren ilegales.[75]

Obstáculos de la investigación[editar]

Muchos problemas impiden el estudio del sesgo algorítmico a gran escala, obstaculizando la aplicación de estudios académicos rigurosos y la comprensión pública.[11]

Falta de transparencia[editar]

Los algoritmos comerciales son patentados y pueden tratarse como secretos comerciales[11][76][25]​. El tratamiento de los algoritmos como secretos comerciales protege a las empresas, como los motores de búsqueda, donde un algoritmo transparente puede revelar tácticas para manipular el posicionamiento de los resultados de búsqueda.[77]​ Esto dificulta a los investigadores realizar entrevistas o análisis para descubrir como estos algoritmos funcionan.[78]​ Los expertos sugieren que este tipo de secreto puede ocultar métodos no éticos usados en la producción o el procesamiento de la salida de los algoritmos.[77]

Complejidad[editar]

Los procesos de los algoritmos son complejos, a menudo excediendo la comprensión de la gente que los usa.[11][76]​ Las operaciones a gran escala pueden no ser comprendidas incluso por quienes están involucrados en crearlas.[79]​ Los métodos y los procesos de los programas de hoy en día a menudo se ven oscurecidos por la incapacidad de conocer cada permutación de una entrada o salida de código.[25]

El científico social Bruno Latour ha identificado este proceso como cajanegrizar. Según él mismo, cajanegrizar es "el camino mediante el cual el trabajo científico o técnico se vuelve invisible a causa de su propio éxito. Cuando una máquina funciona eficientemente o un hecho está establecido con firmeza, uno solo necesita concentrarse en los beneficios que genere y no en su complejidad interior. Así, paradójicamente sucede que la ciencia y la tecnología cuanto más éxito obtienen más opacas se vuelven."[80]​ Otros han criticado la metáfora de la caja negra, sugiriendo que los algoritmos actuales no son una caja negra, sino una interconexión de varias.[81]

Un ejemplo de esta complejidad se puede encontrar en el rango de entradas para personalizar la retroalimentación. Facebook tuvo en cuenta al menos 100.000 puntos de datos para determinar la disposición de una feed de redes sociales de un usuario en 2013.[82]​ Además, equipos grandes de programadores pueden operar en aislamiento relativo unos de otros y no ser conscientes de los efectos acumulados de las decisiones pequeñas con los algoritmos conectados y elaborados.[23]​ No todo el código es original, y puede ser cogido de otras librerías, creando un conjunto complicado de relaciones entre el procesamiento de datos y los sistemas de entrada de datos.[78]

Existe complejidad adicional a través del aprendizaje automático y la personalización de algoritmos basada en interacciones del usuario como los clics, el tiempo pasado en un sitio y otras métricas. Estos ajustes personales pueden confundir intentos generales de entender los algoritmos.[76][77]​ Un servicio de transmisión de radio no identificado informó de que usaba cinco algoritmos únicos de selección de música que había seleccionado para sus usuarios, basándose en su comportamiento. Esto crea diferentes experiencias del mismo servicio de transmisión entre diferentes usuarios, haciendo más difícil de entender qué hacen estos algoritmos.[11]​ Las empresas también realizan pruebas A/B frecuentes para ajustar los algoritmos basadas en las respuestas de los usuarios. Por ejemplo, el motor de búsqueda Bing puede ejecutar hasta diez millones de variaciones de su servicio por día, creando diferentes experiencias del servicio entre cada uso y/o usuario.[11]

Falta de datos sobre categorías sensibles[editar]

Una barrera significativa para entender la lucha contra el sesgo en la práctica es que las categorías, como la demografía de las personas protegidas por la ley antidiscriminatoria, a menudo no se consideran de forma explícita al recopilar y procesar los datos.[83]​ En algunos casos, hay una pequeña oportunidad de recopilar estos datos explícitamente, como en la toma de huellas de dispositivos, la computación ubicua y el Internet de las Cosas. En otros casos, el responsable de los datos puede no querer recopilar esos datos por razones de reputación, o porque representa un mayor riesgo de responsabilidad y seguridad. También puede ser el caso de que, al menos en relación con el Reglamento General de Protección de Datos de la Unión Europea, esos datos entran en las disposiciones de “categoría especial” y por lo tanto conllevan más restricciones en su recogida y tratamiento.

Algunos profesionales han intentado estimar e imputar estas categorizaciones sensibles que no existen para permitir la mitigación del sesgo, por ejemplo, construyendo sistemas para deducir la etnia de los nombres.[84]​ Sin embargo, esto puede introducir otras formas de sesgo si no se realiza con cuidado.[85]​ Los investigadores de machine learning se han basado en tecnologías que mejoran la privacidad criptográfica, tales como la computación segura multipartita para proponer métodos mediante los cuales el sesgo algorítmico pueda ser evaluado o mitigado sin que estos datos estén nunca disponibles para los modeladores en texto plano.[86]

El sesgo algorítmico no sólo incluye categorías protegidas, sino que también incluye características menos observables o codificables, como los puntos de vista políticos. En estos casos, raramente hay una verdad fundamental fácilmente accesible o no controvertida, y eliminar el sesgo de un sistema así es más difícil.[87]

Además, pueden surgir correlaciones falsas y accidentales de una falta de comprensión de las categorías protegidas, por ejemplo, tasas de seguro basadas en datos de historiales de accidentes de coches que pueden solaparse, por casualidad, con grupos residenciales de minorías étnicas.[88]

Métodos y herramientas[editar]

Ha habido varios intentos de crear métodos y herramientas que puedan detectar y observar sesgos dentro de un algoritmo. Este campo emergente se centra en las herramientas que generalmente se aplican a los datos (de capacitación) utilizados por el programa en lugar de los procesos internos del algoritmo. Estos métodos también pueden analizar el resultado de un programa y su utilidad y, por lo tanto, pueden involucrar el análisis de su matriz de confusión (o tabla de confusión).[89][90][91][92][93][94][95][96][97]

Actualmente, se está redactando un nuevo estándar IEEE que tiene como objetivo especificar metodologías que ayuden a los creadores de algoritmos a eliminar problemas de sesgo y articular la transparencia (es decir, a las autoridades o usuarios finales) sobre la función y los posibles efectos de sus algoritmos. El proyecto fue aprobado en febrero de 2017 y está patrocinado por el Comité de Estándares de Ingeniería de Sistemas y Software, un comité constituido por la IEEE Computer Society. Se espera que un borrador de la norma se someta a votación en junio de 2019.[98][99]

Regulación[editar]

Europa[editar]

El Reglamento General de Protección de Datos (RGPD), el régimen revisado de protección de datos de la Unión Europea que se implementó en 2018, aborda en su Artículo 22 la “Toma de decisiones individuales automatizada, incluida la elaboración de perfiles”. Estas normas prohíben “únicamente” las decisiones automatizadas que tengan un efecto “significativo” o “legal” sobre un individuo, a menos que estén explícitamente autorizadas por el consentimiento, el contrato o la legislación de un Estado miembro. En los casos en que estén permitidos, deben existir salvaguardias, como el derecho a human-in-the-loop y el derecho a una explicación no vinculante de las decisiones adoptadas. Aunque estas normas se consideran comúnmente nuevas, en el Artículo 15 de la Directiva de Protección de Datos existen disposiciones casi idénticas en toda Europa desde 1995. Las reglas y salvaguardias originales de las decisiones automatizadas que se encuentran en la legislación francesa desde finales de los años setenta.[100]

El RGPD aborda el sesgo algorítmico en los sistemas de elaboración de perfiles, así como los enfoques estadísticos posibles para limpiarlos, directamente en el considerando 71,[101][102]​ señalando que

… el responsable del tratamiento debe utilizar procedimientos matemáticos o estadísticos adecuados para la elaboración de perfiles, aplicar medidas técnicas y organizativas adecuadas … que eviten, entre otras cosas, los efectos discriminatorios sobre las personas físicas por motivos de origen racial o étnico, opinión política, religión o convicciones, afiliación sindical, situación genética o sanitaria u orientación sexual, o que den lugar a medidas que tengan tal efecto.

Al igual que el derecho a una explicación en el considerando 71,[101][102]​ el problema es el carácter no vinculante de los considerandos.[103]​ Aunque el Grupo de trabajo del Artículo 29, que asesoró sobre la aplicación de la legislación de protección de datos, lo ha tratado como un requisito,[102]​ sus dimensiones prácticas no están claras. Se ha argumentado que las evaluaciones del impacto de la protección de datos para la elaboración de perfiles de datos de alto riesgo (junto con otras medidas preventivas dentro de la protección de datos) pueden ser una mejor manera de abordar los problemas de discriminación algorítmica, ya que restringen las acciones de quienes despliegan algoritmos, en lugar de exigir a los consumidores que presenten quejas o soliciten cambios.[104]

Estados Unidos[editar]

Estados Unidos no tiene una legislación general que controle el sesgo algorítmico, abordando el problema a través de varias leyes estatales y federales que pueden variar según la industria, el sector y la forma en que se utiliza un algoritmo.[105]​ Muchas políticas son ejecutadas o controladas por la Comisión Federal de Comercio.[105]​ En 2016, la administración Obama lanzó el Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial,[106]​ el cual tenía la intención de guiar a los responsables de la formulación de políticas hacia una evaluación crítica de los algoritmos. Recomendó a los investigadores que “diseñen estos sistemas de manera que sus acciones y la toma de decisiones sean transparentes y fáciles de interpretar por los humanos, y así puedan contener, en lugar de simplemente aprender y repetir estos sesgos”. Pensado solo como una guía, el informe no sentó ningún precedente legal.[107]

En 2017, la ciudad de Nueva York aprobó el primer proyecto de ley de rendición de cuentas algorítmica en los Estados Unidos.[108]​ El proyecto de ley, que entró en vigor el 1 de enero de 2018, requería “la creación de un grupo de trabajo que proporcione recomendaciones sobre cómo la información sobre los sistemas de decisión automatizados de las organizaciones debería ser compartida con el público, y cómo esas organizaciones deberían abordar los casos en que las personas se ven perjudicadas por sistemas de decisión automatizados de la organización”.[109]​ Se requiere que el grupo de trabajo presente hallazgos y recomendaciones para acciones reguladoras adicionales en 2019.[110]

India[editar]

El 31 de julio de 2018, se presentó un borrador del proyecto de ley de datos personales.[111]​ El borrador propone estándares para el almacenamiento, procesamiento y transmisión de los datos. Si bien no utiliza el término algoritmo, establece disposiciones para “…daños resultantes de cualquier procesamiento o cualquier tipo de procesamiento realizado por el fiduciario”. Define “cualquier denegación o retirada de un servicio, beneficio o bien resultante de una decisión de evaluación sobre el propietario de los datos” o “cualquier tratamiento discriminatorio” como una fuente de daño que podría surgir del uso indebido de los datos. También establece disposiciones especiales para las personas con “estatus intersexual”.[112]

Referencias[editar]

  1. Jacobi, Jennifer (13 de septiembre de 2001). «Patent #US2001021914». Espacenet. Consultado el 4 de julio de 2018. 
  2. Striphas, Ted. «What is an Algorithm? – Culture Digitally». culturedigitally.org. Consultado el 20 de noviembre de 2017. 
  3. Cormen, Thomas H.; Leiserson, Charles E.; Rivest, Ronald L.; Stein, Clifford (2009). Introduction to algorithms (3rd edición). Cambridge, Mass.: MIT Press. p. 5. ISBN 978-0-262-03384-8. 
  4. Kitchin, Rob (25 de febrero de 2016). «Thinking critically about and researching algorithms». Information, Communication & Society 20 (1): 14-29. doi:10.1080/1369118X.2016.1154087. Consultado el 19 de noviembre de 2017. 
  5. Google. «How Google Search Works». Consultado el 19 de noviembre de 2017.  |autor= y |apellido= redundantes (ayuda)
  6. Luckerson, Victor. «Here's How Your Facebook News Feed Actually Works». TIME.com. Consultado el 19 de noviembre de 2017. 
  7. Vanderbilt, Tom (7 de agosto de 2013). «The Science Behind the Netflix Algorithms That Decide What You'll Watch Next». Wired. Consultado el 19 de noviembre de 2017. 
  8. Angwin, Julia (20 de septiembre de 2016). «Amazon Says It Puts Customers First. But Its Pricing Algorithm Doesn't — ProPublica». ProPublica (en inglés estadounidense). Consultado el 19 de noviembre de 2017. 
  9. Livingstone, Rob. «The future of online advertising is big data and algorithms». The Conversation (en inglés). Consultado el 19 de noviembre de 2017. 
  10. Hickman, Leo (1 de julio de 2013). «How algorithms rule the world». Consultado el 19 de noviembre de 2017. 
  11. a b c d e f Seaver, Nick. «Knowing Algorithms». Media in Transition 8, Cambridge, MA, April 2013. Consultado el 18 de noviembre de 2017. 
  12. a b c Graham, Stephen D.N. (July 2016). «Software-sorted geographies». Progress in Human Geography 29 (5): 572. doi:10.1191/0309132505ph568oa. 
  13. a b Tewell, Eamon (4 de abril de 2016). «Toward the Resistant Reading of Information: Google, Resistant Spectatorship, and Critical Information Literacy». Portal: Libraries and the Academy 16 (2): 289-310. ISSN 1530-7131. Consultado el 19 de noviembre de 2017. 
  14. Crawford, Kate (1 de abril de 2013). «The Hidden Biases in Big Data». Harvard Business Review. 
  15. a b c d e Gillespie, Tarleton; Boczkowski, Pablo; Foot, Kristin (2014). Media Technologies. Cambridge: MIT Press. pp. 1-30. ISBN 9780262525374. 
  16. a b Diakopoulas, Nicholas. «Algorithmic Accountability: On the Investigation of Black Boxes |». towcenter.org (en inglés). Consultado el 19 de noviembre de 2017. 
  17. Lipartito, Kenneth (6 de enero de 2011). «The Narrative and the Algorithm: Genres of Credit Reporting from the Nineteenth Century to Today». SSRN Electronic Journal. doi:10.2139/ssrn.1736283. 
  18. a b Goodman, Bryce; Flaxman, Seth (2017). «EU regulations on algorithmic decision-making and a "right to explanation"». AI Magazine 38 (3): 50. doi:10.1609/aimag.v38i3.2741. 
  19. a b c d e f g Weizenbaum, Joseph. Computer power and human reason : from judgment to calculation. San Francisco. ISBN 978-0-7167-0464-5. 
  20. a b Goffrey, Andrew (2008). «Algorithm». En Fuller, Matthew, ed. Software studies: a lexicon. Cambridge, Mass.: MIT Press. pp. 15–20. ISBN 978-1-4356-4787-9. 
  21. Lowry, Stella; Macpherson, Gordon (5 de marzo de 1988). «A Blot on the Profession». British Medical Journal (6623 edición) 296: 657-8. PMC 2545288. PMID 3128356. doi:10.1136/bmj.296.6623.657. Consultado el 17 de noviembre de 2017. 
  22. «Miller, Alex P. (26 July 2018). "Want Less-Biased Decisions? Use Algorithms". Harvard Business Review. Retrieved 31 July 2018.». 
  23. a b c «Introna, Lucas D. (2 December 2011). "The Enframing of Code". Theory, Culture & Society. 28 (6): 113–141. doi:10.1177/0263276411418131». 
  24. «Bogost, Ian (2015-01-15). "The Cathedral of Computation". The Atlantic. Retrieved 19 November 2017.» |url= incorrecta con autorreferencia (ayuda). 
  25. a b c d e f g Introna, Lucas; Wood, David (2004). «Picturing algorithmic surveillance: the politics of facial recognition systems». Surveillance & Society (en inglés) 2 (2/3): 177-198. doi:10.1.1.117.7338&rep=rep1&type=pdf |doi= incorrecto (ayuda). Consultado el 22 de noviembre de 2019. 
  26. a b c d «Introna, Lucas D. (21 December 2006). "Maintaining the reversibility of foldings: Making the ethics (politics) of information technology visible". Ethics and Information Technology. 9 (1): 11–25. CiteSeerX 10.1.1.154.1313. doi:10.1007/s10676-006-9133-z.» |url= incorrecta con autorreferencia (ayuda). 
  27. a b «Shirky, Clay. "A Speculative Post on the Idea of Algorithmic Authority Clay Shirky". www.shirky.com. Retrieved 20 November 2017.» |url= incorrecta con autorreferencia (ayuda). 
  28. a b Ziewitz, Malte (1 de enero de 2016). «Governing Algorithms: Myth, Mess, and Methods». Science, Technology, & Human Values (en inglés) 41 (1): 3-16. ISSN 0162-2439. doi:10.1177/0162243915608948. Consultado el 29 de noviembre de 2019. 
  29. [doi:10.1177/0263276407075956. «Lash, Scott (30 June 2016). "Power after Hegemony". Theory, Culture & Society. 24 (3): 55–78.»]. 
  30. a b [doi:10.1215/07402775-3813015. «Garcia, Megan (1 January 2016). "Racist in the Machine". World Policy Journal. 33 (4): 111–117.»]. 
  31. «"ACM FAT* - 2018 Information for Press". fatconference.org». 
  32. a b c d e f g h i j Friedman, Batya; Nissenbaum, Helen (July 1996). «Bias in Computer Systems». ACM Transactions on Information Systems (3 edición) 14: 330-347. doi:10.1145/230538.230561. Consultado el 10 de marzo de 2019. 
  33. Sergot, MJ; Sadri, F; Kowalski, RA; Kriwaczek, F; Hammond, P; Cory, HT (May 1986). «The British Nationality Act as a Logic Program». Communications of the ACM 29 (5): 370-386. doi:10.1145/5689.5920. Consultado el 18 de noviembre de 2017. 
  34. a b c d e f «Friedman, Batya; Nissenbaum, Helen (July 1996). "Bias in Computer Systems" (PDF). ACM Transactions on Information Systems.». 
  35. «Gillespie, Tarleton. "Algorithm [draft] [#digitalkeywords] – Culture Digitally".». 
  36. «Kuang, Cliff (21 November 2017). "Can A.I. Be Taught to Explain Itself?". The New York Times. Retrieved 26 November 2017.». 
  37. «Jouvenal, Justin (17 November 2016). "Police are using software to predict crime. Is it a 'holy grail' or biased against minorities?". Washington Post.». 
  38. a b «Chamma, Maurice (2016-02-03). "Policing the Future". The Marshall Project. Retrieved». 
  39. [doi:10.1111/j.1740-9713.2016.00960.x. «Lum, Kristian; Isaac, William (October 2016). "To predict and serve?". Significance. 13 (5): 14–19.»]. 
  40. [doi:10.5220/0006938301100118. «Sun, Wenlong; Nasraoui, Olfa; Shafto, Patrick (2018). "Iterated Algorithmic Bias in the Interactive Machine Learning Process of Information Filtering". Proceedings of the 10th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management. Seville, Spain: SCITEPRESS - Science and Technology Publications: 110–118.»]. 
  41. «Hao, Karen; Hao, Karen. "Google is finally admitting it has a filter-bubble problem". Quartz.». 
  42. «"Facebook Is Testing This New Feature to Fight 'Filter Bubbles'". Fortune.». 
  43. a b Christian, Sandvig; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (22 de mayo de 2014). «Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms». 64th Annual Meeting of the International Communication Association. Consultado el 18 de noviembre de 2017. 
  44. Brin, Sergey. «The Anatomy of a Search Engine». Archivado desde el original el 2 de julio de 2019. Consultado el 18 de noviembre de 2019.  Parámetro desconocido |nombre 2= ignorado (ayuda); Parámetro desconocido |Apellido 2= ignorado (ayuda); Parámetro desconocido |Fecha acceso URL= ignorado (ayuda); Parámetro desconocido |Nombre página web= ignorado (ayuda); Parámetro desconocido |Estado del URL= ignorado (ayuda)
  45. Epstein, Robert; Robertson, Ronald E. (18 de agosto de 2015). «The search engine manipulation effect (SEME) and its possible impact on the outcomes of elections». Proceedings of the National Academy of Sciences of the United States of America 112 (33): E4512-E4521. ISSN 0027-8424. PMC 4547273. PMID 26243876. doi:10.1073/pnas.1419828112. Consultado el 22 de noviembre de 2019. 
  46. Bond, Robert M.; Fariss, Christopher J.; Jones, Jason J.; Kramer, Adam D. I.; Marlow, Cameron; Settle, Jaime E.; Fowler, James H. (13 de septiembre de 2012). «A 61-million-person experiment in social influence and political mobilization». Nature 489 (7415). ISSN 0028-0836. PMC 3834737. PMID 22972300. doi:10.1038/nature11421. Consultado el 22 de noviembre de 2019. 
  47. Zittrain, Jonathan (2014). «Engineering an Election» (PDF). Harvard Law Review Forum: 335. 
  48. Day, Matt. «How LinkedIn's search engine may reflect a gender bias». Consultado el 25 de noviembre de 2017. 
  49. a b Crawford, Kate; Schultz, Jason (2014). «Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms». Boston College Law Review 55 (1): 93-128. 
  50. Duhigg, Charles (16 de febrero de 2012). «How Companies Learn Your Secrets». The New York Times. Consultado el 18 de noviembre de 2017. 
  51. Noble, Safiya (2012). «Missed Connections: What Search Engines Say about Women». Bitch Magazine 12 (4): 37-41. 
  52. Guynn, Jessica (16 de marzo de 2017). «Google starts flagging offensive content in search results». USA TODAY. USA Today. Consultado el 19 de noviembre de 2017. 
  53. Simonite, Tom. «Study Suggests Google's Ad-Targeting System May Discriminate». Massachusetts Institute of Technology. 
  54. Dastin, Jeffrey (9 de octubre de 2018). «Amazon scraps secret AI recruiting tool that showed bias against women». Reuters. 
  55. a b Nakamura, Lisa (2009). Magnet, Shoshana; Gates, Kelly, eds. The new media of surveillance. London: Routledge. p. 158. ISBN 978-0-415-56812-8. 
  56. Alexander, Rudolph; Gyamerah, Jacquelyn (September 1997). «Differential Punishing of African Americans and Whites Who Possess Drugs: A Just Policy or a Continuation of the Past?». Journal of Black Studies 28 (1): 97-111. ISSN 0021-9347. doi:10.1177/002193479702800106. 
  57. Petersilia, Joan (1985-01). «Racial Disparities in the Criminal Justice System: A Summary». Crime & Delinquency (en inglés estadounidense) 31 (1): 15-34. ISSN 0011-1287. doi:10.1177/0011128785031001002. Consultado el 22 de noviembre de 2019. 
  58. a b Julia Angwin, Jeff Larson (23 de mayo de 2016). «Machine Bias». ProPublica (en inglés). Consultado el 22 de noviembre de 2019. 
  59. Harcourt, Bernard E. (16 de septiembre de 2010). «Risk as a Proxy for Race». Universidad de Chicago (en inglés) (Social Science Research Network) (ID 1677654): 4. Consultado el 22 de noviembre de 2019. 
  60. a b Guynn, Jessica. «Google Photos labeled black people 'gorillas'». USA TODAY (en inglés estadounidense). Consultado el 22 de noviembre de 2019. 
  61. Rose, Adam (22 de enero de 2010). «Are Face-Detection Cameras Racist?». Time (en inglés estadounidense). ISSN 0040-781X. Consultado el 22 de noviembre de 2019. 
  62. «The accent gap: How Amazon’s and Google’s smart speakers leave certain voices behind». Washington Post (en inglés). Consultado el 22 de noviembre de 2019. 
  63. Sweeney, Latanya (28 de enero de 2013). Discrimination in Online Ad Delivery (en inglés) (ID 2208240). Social Science Research Network. Consultado el 22 de noviembre de 2019. 
  64. Skeem, Jennifer L.; Lowenkamp, Christopher (14 de junio de 2016). Risk, Race, & Recidivism: Predictive Bias and Disparate Impact (en inglés) (ID 2687339). Social Science Research Network. Consultado el 22 de noviembre de 2019. 
  65. reporterEmailEmailBioBioFollowFollow, Carolyn Y. Johnson closeCarolyn Y. JohnsonScience. «Racial bias in a medical algorithm favors white patients over sicker black patients». Washington Post (en inglés). Consultado el 22 de noviembre de 2019. 
  66. a b Julia Angwin, Hannes Grassegger (28 de junio de 2017). «Facebook’s Secret Censorship Rules Protect White Men From Hate Speech But Not Black Children». ProPublica (en inglés). Consultado el 22 de noviembre de 2019. 
  67. Julia Angwin, Madeleine Varner (14 de septiembre de 2017). «Facebook Enabled Advertisers to Reach ‘Jew Haters’». ProPublica (en inglés). Consultado el 22 de noviembre de 2019. 
  68. Furl, Nicholas; Phillips, P. Jonathon; O'Toole, Alice J. (2002). «Face recognition algorithms and the other-race effect: computational mechanisms for a developmental contact hypothesis». Cognitive Science (en inglés) 26 (6): 797-815. ISSN 1551-6709. doi:10.1207/s15516709cog2606_4. Consultado el 22 de noviembre de 2019. 
  69. Buolamwini, Joy; Gebru, Timnit (2018). «Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification». Proceedings of Machine Learning Research 81: 1 – via MLR Press. 
  70. Ananny, Mike (14 de abril de 2011). «The Curious Connection Between Apps for Gay Men and Sex Offenders». The Atlantic (en inglés estadounidense). Consultado el 18 de noviembre de 2019. 
  71. «Did Amazon Really Fail This Weekend? The Twittersphere Says “Yes,” Online Retailer Says “Glitch.”». AllThingsD (en inglés estadounidense). Consultado el 18 de noviembre de 2019. 
  72. «Amazon Apologizes for “Ham-fisted Cataloging Error”». AllThingsD (en inglés estadounidense). Consultado el 18 de noviembre de 2019. 
  73. «Why Facebook Search Suggests ‘Photos of Female Friends in Bikinis’». Wired (en inglés). ISSN 1059-1028. Consultado el 18 de noviembre de 2019. 
  74. «Algorithms of Oppression». NYU Press (en inglés estadounidense). Consultado el 18 de noviembre de 2019. 
  75. Noble, Safiya Umoja. Algorithms of Oppression: How Search Engines Reinforce Racism. Nueva York. ISBN 9781479837243. OCLC 987591529. 
  76. a b c Sandvig, Christian; Hamilton, Kevin; Karahalios, Karrie; Langbort, Cedric (2014). Gangadharan, Seeta Pena; Eubanks, Virginia; Barocas, Solon (eds.). «"An Algorithm Audit"». 
  77. a b c Granka, Laura A. (27 de septiembre de 2010). «The Politics of Search: A Decade Retrospective». The Information Society 26 (5): 364-374. ISSN 0197-2243. doi:10.1080/01972243.2010.511560. Consultado el 27 de noviembre de 2019. 
  78. a b Kitchin, Rob (2 de enero de 2017). «Thinking critically about and researching algorithms». Information, Communication & Society 20 (1): 14-29. ISSN 1369-118X. doi:10.1080/1369118X.2016.1154087. Consultado el 27 de noviembre de 2019. 
  79. LaFrance, Adrienne (18 de septiembre de 2015). «The Algorithms That Power the Web Are Only Getting More Mysterious». The Atlantic (en inglés estadounidense). Consultado el 27 de noviembre de 2019. 
  80. Bruno Latour (1999). Pandora's hope: essays on the reality of science studies. Cambridge, Massachusetts: Harvard University Press. 
  81. Kubitschko, Sebastian; Kaun, Anne (26 de diciembre de 2016). Innovative Methods in Media and Communication Research (en inglés). Springer. p. 92. ISBN 978-3-319-40700-5. Consultado el 27 de noviembre de 2019. 
  82. «EdgeRank Is Dead: Facebook's News Feed Algorithm Now Has Close To 100K Weight Factors». Marketing Land. 16 de agosto de 2013. Consultado el 27 de noviembre de 2019. 
  83. Veale, Michael; Binns, Reuben (20 de noviembre de 2017). «Fairer machine learning in the real world: Mitigating discrimination without collecting sensitive data». Big Data & Society (en inglés estadounidense) 4 (2): 205395171774353. ISSN 2053-9517. doi:10.1177/2053951717743530. Consultado el 27 de noviembre de 2019. 
  84. Elliott, Marc N.; Morrison, Peter A.; Fremont, Allen; McCaffrey, Daniel F.; Pantoja, Philip; Lurie, Nicole (10 de abril de 2009). «Using the Census Bureau’s surname list to improve estimates of race/ethnicity and associated disparities». Health Services and Outcomes Research Methodology (en inglés) 9 (2): 69. ISSN 1572-9400. doi:10.1007/s10742-009-0047-1. Consultado el 27 de noviembre de 2019. 
  85. Chen, Jiahao; Kallus, Nathan; Mao, Xiaojie; Svacha, Geoffry; Udell, Madeleine (2019). «Fairness Under Unawareness: Assessing Disparity When Protected Class Is Unobserved». Proceedings of the Conference on Fairness, Accountability, and Transparency - FAT* '19 (Atlanta, GA, USA: ACM Press): 339-348. ISBN 9781450361255. arXiv:1811.11154. doi:10.1145/3287560.3287594. 
  86. Kilbertus, Niki; Gascon, Adria; Kusner, Matt; Veale, Michael; Gummadi, Krishna; Weller, Adrian (3 de julio de 2018). «Blind Justice: Fairness with Encrypted Sensitive Attributes». International Conference on Machine Learning (en inglés): 2630-2639. Consultado el 27 de noviembre de 2019. 
  87. Binns, Reuben; Veale, Michael; Van Kleek, Max; Shadbolt, Nigel (2017). «Like Trainer, Like Bot? Inheritance of Bias in Algorithmic Content Moderation». En Ciampaglia, Giovanni Luca, ed. Social Informatics. Lecture Notes in Computer Science (en inglés) (Springer International Publishing): 405-415. ISBN 978-3-319-67256-4. doi:10.1007/978-3-319-67256-4_32. Consultado el 27 de noviembre de 2019. 
  88. «EU Data Protection Law May End The Unknowable Algorithm». InformationWeek (en inglés). Consultado el 27 de noviembre de 2019. 
  89. «Attack discrimination with smarter machine learning». research.google.com. Consultado el 29 de noviembre de 2019. 
  90. Hardt, Moritz; Price, Eric; Srebro, Nathan (7 de octubre de 2016). «Equality of Opportunity in Supervised Learning». arXiv:1610.02413 [cs]. Consultado el 29 de noviembre de 2019. 
  91. «Microsoft is developing a tool to help engineers catch bias in algorithms». VentureBeat (en inglés estadounidense). 25 de mayo de 2018. Consultado el 29 de noviembre de 2019. 
  92. Gershgorn, Dave. «Facebook says it has a tool to detect bias in its artificial intelligence». Quartz (en inglés). Consultado el 29 de noviembre de 2019. 
  93. detect demographic differences in the output of machine learning models or other assessments: pymetrics/audit-ai, Pymetrics, 29 de noviembre de 2019, consultado el 29 de noviembre de 2019 .
  94. «Pymetrics open-sources Audit AI, an algorithm bias detection tool». VentureBeat (en inglés estadounidense). Consultado el 29 de noviembre de 2019. 
  95. Bias and Fairness Audit Toolkit . Contribute to dssg/aequitas development by creating an account on GitHub, Data Science for Social Good, 26 de noviembre de 2019, consultado el 29 de noviembre de 2019 .
  96. rayid. «Aequitas». Center for Data Science and Public Policy (en inglés estadounidense). Consultado el 29 de noviembre de 2019. 
  97. «Mitigating Bias in Artificial Intelligence (AI) Models -- IBM Research». IBM Research Blog (en inglés estadounidense). 7 de febrero de 2018. Consultado el 29 de noviembre de 2019. 
  98. Koene, A. (2017-06). «Algorithmic Bias: Addressing Growing Concerns [Leading Edge]». IEEE Technology and Society Magazine 36 (2): 31-32. ISSN 1937-416X. doi:10.1109/MTS.2017.2697080. Consultado el 29 de noviembre de 2019. 
  99. «P7003 - Algorithmic Bias Considerations». standards.ieee.org. Consultado el 29 de noviembre de 2019. 
  100. Bygrave, Lee A (1 de enero de 2001). «AUTOMATED PROFILING: MINDING THE MACHINE: ARTICLE 15 OF THE EC DATA PROTECTION DIRECTIVE AND AUTOMATED PROFILING». Computer Law & Security Review 17 (1): 17-24. ISSN 0267-3649. doi:10.1016/S0267-3649(01)00104-2. Consultado el 18 de noviembre de 2019. 
  101. a b «Reglamento del Parlamento Europeo y del Consejo de 27 de abril de 2016». Boletín Oficial del Estado: 14. 
  102. a b c «Clarity, surprises, and further questions in the Article 29 Working Party draft guidance on automated decision-making and profiling». 
  103. Wachter, Sandra; Mittelstadt, Brent; Floridi, Luciano (1 de mayo de 2017). «Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation». International Data Privacy Law (en inglés) 7 (2): 76-99. ISSN 2044-3994. doi:10.1093/idpl/ipx005. Consultado el 18 de noviembre de 2019. 
  104. Edwards, Lilian; Veale, Michael (23 de mayo de 2017). Slave to the Algorithm? Why a 'Right to an Explanation' Is Probably Not the Remedy You Are Looking For (en inglés) (ID 2972855). Social Science Research Network. Consultado el 18 de noviembre de 2019. 
  105. a b Singer, Natasha (2 de febrero de 2013). «Data Protection Laws, an Ocean Apart». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 18 de noviembre de 2019. 
  106. «The Administration’s Report on the Future of Artificial Intelligence». whitehouse.gov (en inglés). 12 de octubre de 2016. Consultado el 18 de noviembre de 2019. 
  107. «The National Artificial Intelligence Research and Development Strategic Plan». Obama White House Archives: 26. 
  108. Kirchner, Lauren (18 de diciembre de 2017). «New York City Moves to Create Accountability for Algorithms». ProPublica (en inglés). Consultado el 18 de noviembre de 2019. 
  109. «The New York City Council - File #: Int 1696-2017». legistar.council.nyc.gov. Consultado el 18 de noviembre de 2019. 
  110. Powles, Julia (21 de diciembre de 2017). «New York City’s Bold, Flawed Attempt to Make Algorithms Accountable» (en inglés). ISSN 0028-792X. Consultado el 18 de noviembre de 2019. 
  111. «India Weighs Comprehensive Data Privacy Bill, Similar to EU's GDPR». Insurance Journal (en inglés estadounidense). 31 de julio de 2018. Consultado el 18 de noviembre de 2019. 
  112. «The Personal Data Protection Bill, 2018». Ministry of Electronics & Information Technology. 

Véase también[editar]