Un concepto viajero : Comprensiones acerca de la interseccionalidad en estudios de sesgo en la ciencia de datos
A traveling concept : Understandings about intersectionality in studies on bias in data science
Resumen:
El uso de grandes volúmenes de datos, el diseño de algoritmos y la utilización de técnicas de aprendizaje automático parecen ser cada vez más frecuentes para la toma de decisiones en diferentes ámbitos como la salud, educación y seguridad pública, entre otros. El campo de estudio de la ciencia de datos, en la línea de investigación de justicia O fairness, investiga cómo estos sistemas pueden reproducir y acentuar sesgos y desigualdades presentes en nuestras sociedades. Se han detectado sesgos mayoritariamente de género y raciales en sistemas predictivos de reincidencia criminal, algoritmos que asisten decisiones médicas, entre muchos otros. Recientemente se han manifestado carencias en la detección de sesgos cuando se toman las variables de forma independiente, debido a que las desigualdades pueden presentarse en la intersección de las mismas, siendo indetectables en el análisis individual. En tanto concepto viajero, la interseccionalidad viene a permear este campo y habilita la posibilidad de pensar los sesgos que se dan cuando se cruzan múltiples categorías de opresión, complejizando los análisis hasta el momento centrado en un solo eje de opresión a la vez. Aquí identificamos y analizamos, a partir de una revisión sistemática de la bibliografía disponible sobre justicia interseccional, cómo la interseccionalidad “viaja” hacia la ciencia de datos, provocando nuevas preguntas en torno a la justicia. Destacamos, entre las conclusiones, la necesidad de conformar grupos interdisciplinarios de trabajo para generar diagnósticos y alternativas que se nutran de la interseccionalidad en toda su riqueza y complejidad.
The use of large volumes of data, the design of algorithms and the use of machine learning techniques seem to be more and more frequent for decision-making in different areas such as healthcare, education and public safety, among others. The strand of fairness in data science investigates how these systems can reproduce and intensify biases and inequalities that exist in our societies. Gender and racial biases have been detected in predictive systems for criminal recidivism, algorithms that assist medical decisions, among many others. Recently, deficiencies have been manifested in the detection of biases when the variables are taken independently, since inequalities can appear in their intersections, being undetectable in individual analysis. As a traveling concept, intersectionality permeates this field, enabling the analysis of biases that occur when multiple categories of oppression intersect, making the analyzes, so far focused on a single axis of oppression at a time, more complex. Here we identify and analyze, based on a systematic review of the available literature on intersectional justice, how intersectionality “travels” into data science, prompting new questions around justice. We highlight, among other conclusions, the need to form interdisciplinary work groups to create diagnoses and alternatives that are nourished by intersectionality in all its richness and complexity.
2022 | |
Sesgos Justicia Interseccional Ciencia de Datos Biases Intersectional Fairness Data Science |
|
Español | |
Universidad de la República | |
COLIBRI | |
https://hdl.handle.net/20.500.12008/43579 | |
Acceso abierto | |
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |