abril 10, 2021

Feminismo de datos: combatir la desigualdad en la tecnología y la sociedad

El feminismo de datos plantea una crítica interseccional a la forma en que la ciencia de datos refuerza el poder y una reflexión filosófica acerca de la supuesta “neutralidad” del conocimiento que produce.


James Veysey / Shutterstock

En los últimos meses han proliferado las controversias en torno a Google tras el despido de dos de sus especialistas en ética para la Inteligencia Artificial. ¿El motivo? Posicionarse públicamente contra algunas de las políticas de la empresa. En realidad se trata de una polémica que comenzó cuando, en 2019, se decidió desmantelar el comité encargado de abordar estas cuestiones tan solo una semana después de su formación. El caso de Google se suma a una larga lista de intentos por parte de las grandes corporaciones tecnológicas de crear consejos encargados de regular el tratamiento de datos personales y de velar por la transparencia y las buenas prácticas en un momento de descrédito general, propiciado por escándalos como el de Cambridge Analytica en Facebook o la venta de Rekognition (un sistema de reconocimiento facial desarrollado por Amazon) al servicio estadounidense de inmigración y aduanas, que provocaron varias protestas entre los propios empleados.

La recolección, uso y venta de datos resulta tremendamente lucrativa para empresas privadas que obtienen sus beneficios de la publicidad dirigida, las recomendaciones personalizadas o el análisis predictivo. Por ello, redes sociales como Facebook y Twitter se dedican a comerciar con la información de sus usuarios aprovechándose de unas condiciones de uso abusivas y engañosas. Y no solo esto, sino que los sistemas automáticos alimentados con estos datos han revelado tener sesgos marcadamente sexistas, racistas y clasistas: el traductor de Google reproduce estereotipos al traducir idiomas que usan género neutro; el algoritmo de selección de personal de Amazon penaliza los currículums que contienen la palabra “mujer”; buscar nombres afroamericanos aumenta las probabilidades de recibir anuncios de registros de arrestos u ofertas de tarjetas de crédito de alto interés… 

Tales ejemplos han motivado la creación de comités y códigos éticos con los que las corporaciones tecnológicas pretenden mostrar su rechazo hacia cualquier forma de discriminación. Podría parecer que esto responde a una preocupación loable por los efectos negativos de determinadas tecnologías, especialmente cuando se desarrollan con fines políticos o militares. En realidad, responde a una estrategia conocida como ethics-washing —o, expuesto llanamente, “lavado de cara”:
Las empresas privadas evitan la regulación usando la ética como la opción blanda frente a los marcos legales o la supervisión externa.

De ahí que expertos como Ben Wagner señalen la necesidad de disponer de criterios comunes que permitan evaluar la calidad de los compromisos adquiridos por parte de las corporaciones y evitar que sean arbitrarios e ineficaces a la hora de abordar estas cuestiones. Quizás habría que desplazar el debate de la esfera de la ética a la de la política, al tratarse de problemas estructurales que, en última instancia, tienen que ver con el poder en nuestras sociedades.

En esta línea han aparecido propuestas como el feminismo de datos. En palabras de Catherine D’Ignazio y Lauren Klein, autoras de Data Feminism:

El punto de partida del feminismo de los datos es algo que no se reconoce en la ciencia de los datos: el poder no está distribuido equitativamente en el mundo. Los que ejercen el poder son desproporcionadamente hombres de élite, heterosexuales, blancos, sanos y cisgénero del Norte Global. El trabajo del feminismo de datos consiste, en primer lugar, en entender el modo en que las prácticas estándar de la ciencia de datos refuerzan estas desigualdades existentes y, en segundo lugar, en utilizar la ciencia de datos para desafiar y cambiar la distribución del poder.
Tanto el debate en torno a los sesgos como la aproximación “ética” sitúan el origen del problema en los programadores o en los propios sistemas técnicos, pero la verdadera causa es la opresión sistémica que los genera.

Sin duda, los sesgos son un problema y reflejan la escasa diversidad que afecta a la ciencia de datos y a toda la industria tecnológica: las mujeres y otros grupos minorizados tienen menos acceso a estos ámbitos por motivos que van desde los estereotipos que dictan a qué trabajos se puede aspirar hasta prejuicios en la contratación. Que la mayoría de personas trabajando en ciencia de datos sean “hombres de élite, heterosexuales, blancos, sanos y cisgénero del Norte Global” hace que los sistemas que diseñan no tomen en consideración los efectos nocivos y discriminatorios de dichos sistemas, ya que sus autores no los experimentan en primera persona por su propia posición de privilegio. 

Ahora bien, el problema ya no es solo que los datos con los que se entrenan estos sistemas estén sesgados o no sean representativos: puede ocurrir que, por su carácter no lucrativo, estos nunca se recopilen. De ahí que hayan surgido iniciativas como Datos contra el ruido, un proyecto impulsado por DigitalFems que utiliza el big data para visibilizar las violencias machistas. En ella colaboran expertas de distintos ámbitos con el fin de recopilar “contradatos” para mostrar el alcance de un problema sobre el que escasea la información, muchas veces a causa de una negligencia institucional: a pesar de que esos datos existen en los juzgados y en las comisarías de policía, no se les da uso, visibilidad ni prioridad en la agenda política. De hecho, existen más datos sobre las multas de tráfico que sobre los casos de violencia sexual, y antes de este proyecto no existía ninguna fuente fiable, organizada y estructurada con respecto a este problema.
Es imprescindible crear bases de datos con perspectiva de género a partir de las cuales se puedan exigir responsabilidades, reclamar historias olvidadas y construir lazos de solidaridad, apoyo y acción colectiva.

También puede ocurrir que se recopilen datos en exceso, como ocurre cuando se trata de vigilar a determinados grupos sociales como las comunidades migrantes y racializadas o grupos sociales empobrecidos, según señalan Safiya Umoja Noble en Algorithms of Oppression y Victoria Eubanks en Automating Inequality. Esto plantea cuestiones interesantes sobre la creencia, tan extendida como errónea, según la cual la exposición es siempre deseable y “lo que no se cuenta no existe”: si bien la recolección de datos puede ayudar a visibilizar ciertas opresiones y recabar información sobre fenómenos que, de otra forma, no serían objeto de debate público, en ocasiones esta visibilidad puede tener efectos perjudiciales que se traducen en un control excesivo o directamente en violencia (por ejemplo, al revelar la condición serológica de personas con VIH). Paradójicamente, a veces lo mejor es permanecer oculto e invisible.

Más allá de estos asuntos, el feminismo de datos también plantea una reflexión (más filosófica, si se quiere, pero igualmente ligada a la cuestión del poder) acerca del modo en que la ciencia de datos produce conocimiento sobre personas, lugares o cosas; un conocimiento pretendidamente objetivo y neutral que, sin embargo, es siempre parcial y situado, como nos enseñaron las epistemologías feministas de Sandra Harding o Donna Haraway. En primer lugar, porque los datos nunca son desencarnados y deshumanizados sino que tienen siempre una dimensión corpórea y vital. De hecho, podrían entenderse como un segundo cuerpo a partir del cual se estructura nuestra experiencia y nuestra vida afectiva, accedemos al mundo y nos relacionamos con los demás, tal y como sugiere la filósofa Alejandra López Gabrielidis. Y, en segundo lugar, porque cuando se produce conocimiento siempre se hace desde un punto de vista o un posicionamiento determinado; cuando éste se presenta como neutral, en realidad significa que ha adoptado el punto de vista hegemónico o dominante. Esto significa empezar a tomar en consideración la importancia del contexto, entendiendo que los números no hablan por sí solos: los datos no están desligados del entorno en el que se produjeron. Este contexto está formado tanto por las personas como por las prácticas, tecnologías, instituciones, objetos materiales y relaciones que hacen posible su recolección, almacenamiento y análisis. 


Por ello, el feminismo de datos remarca la importancia de adoptar el pluralismo epistemológico en la ciencia de datos, incluyendo una multiplicidad de perspectivas y voces en todas las etapas del proceso (desde la recopilación hasta la limpieza, el análisis y la comunicación), sin que esto implique caer en el relativismo o en una postura anticientífica. Al contrario, cuando se ponen en común distintos puntos de vista se consigue una comprensión más rica y sólida del mundo, frente a la arrogancia de quienes pretenden universalizar su posición particular. Esta es la postura de lo que llaman “Big Dick Data”: los proyectos de big data que ignoran el contexto, fetichizan el tamaño y sobreestiman sus capacidades técnicas y científicas. En definitiva, lo importante no es quién tiene la base de datos más grande.

A modo de conclusión, es importante señalar que la ciencia de datos es parte del problema pero también puede ser parte de la solución.

Al fin y al cabo, la asimetría de la que adolece actualmente no es más que un reflejo de la distribución desigual de poder que puede encontrarse en cualquier esfera social. De ahí que el feminismo de datos trate principalmente del poder —quién lo tiene y quién no— con el objetivo de examinarlo para, en última instancia, redistribuirlo. Algunas de las formas que propone para este fin son la recolección de “contradatos”, la auditoría de algoritmos opacos, la rendición de cuentas por parte de las empresas e instituciones públicas y el aprendizaje mutuo con comunidades a las que se pretende dotar de mayor autonomía tecnopolítica. Son muchas las alternativas y mucho el camino por recorrer. Por cerrar citando a D’Ignazio y Klein, “la opresión es el problema, la equidad es el camino y la coliberación es la meta”. 

Una versión preliminar y mucho más amplia de este texto fue debatida en la primera sesión del Vector de Conceptualización Sociotécnica, que incluyó una conversación con Digital Fems y está disponible aquí.

Filósofo especializado en género y tecnología
Fuente: El Salto

Sí a la Diversidad Familiar!
The Blood of Fish, Published in