De errores en diagnósticos médicos a descartar currículums de mujeres, así son los sesgos de género en la IA

Una mujer con gafas de realidad aumentada durante la III Cumbre Internacional sobre el uso responsable de la Inteligencia Artificial. EFE/Cabalar
La inteligencia artificial (IA) ya interviene en procesos de selección de personal, diagnósticos médicos o sistemas de seguridad, pero diversos estudios advierten de que no es neutral y que la infrarrepresentación femenina en su desarrollo, junto al uso de datos sesgados, están provocando decisiones automatizadas que discriminan a las mujeres.
Así lo advierte el Informe preliminar con perspectiva interseccional sobre sesgos de género en la inteligencia artificial, elaborado por el Instituto de las Mujeres, que subraya que los sistemas algorítmicos no operan en el vacío, sino que reflejan los valores, prejuicios y jerarquías presentes en los datos con los que se entrenan.
El informe alerta de que, si no se incorporan criterios de igualdad en su diseño, la IA puede reforzar estereotipos y producir efectos discriminatorios a gran escala, especialmente en ámbitos como el empleo, la salud, la movilidad o el urbanismo.
Uno de los casos más estudiados es el de la selección de personal, donde sistemas de cribado automatizado han penalizado currículums de mujeres al asociar los perfiles de liderazgo con trayectorias masculinas.
Estos algoritmos aprenden a partir de historiales de contratación dominados por hombres y reproducen ese patrón como norma, lo que reduce las oportunidades de las candidatas incluso antes de que una persona revise su perfil.
Sesgos de género en la IA en empleo, reconocimiento facial y salud
Así lo confirmó la propia directora de Ciencia de Datos del laboratorio de ideas Data-Pop Alliance (con el apoyo de las universidades de Harvard y el MIT), Zynnia del Villar, durante una entrevista con EFE.
"Amazon tuvo que retirar su sistema de reclutamiento basado en IA porque penalizaba los currículum vitae de las solicitantes mujeres, y asistentes virtuales como Siri o Alexa han sido programados con respuestas sumisas ante comentarios sexistas, reforzando estereotipos de género", explicó.
Este caso también es uno de los ejemplos analizados en el artículo Inteligencia artificial y sesgos de género, firmado por Lourdes Muñoz Santamaría y publicado en la revista monográfica In_Mujeres, dedicada a la comunicación.
En el ámbito del reconocimiento facial, el artículo explica que los sistemas fallan más al identificar a mujeres y, de forma especialmente acusada, a mujeres racializadas, ya que los algoritmos se entrenan mayoritariamente con imágenes de hombres blancos, lo que incrementa los márgenes de error para otros grupos de población.
En el ámbito de la salud, advierte de que los algoritmos entrenados mayoritariamente con datos de pacientes hombres pueden generar diagnósticos erróneos para las mujeres y agravar sesgos ya existentes en la práctica médica.
Estudios citados señalan que estos sistemas fallan con mayor frecuencia en la detección de enfermedades cardiovasculares en mujeres, al basarse en patrones clínicos masculinos.
Esta distorsión tecnológica se suma a un sesgo histórico en la investigación médica, donde las mujeres han estado infrarrepresentadas en estudios y ensayos clínicos, lo que ha derivado en infradiagnósticos, tratamientos más conservadores y, en algunos casos, peores pronósticos.
El caso de Grok: deepfakes sexuales y violencia digital
El artículo también se pregunta cómo impacta el mal uso de las herramientas de IA en los derechos de las mujeres y en la violencia contra ellas. En esa línea, uno de los episodios más recientes y graves es el uso de Grok (la IA de X) para crear deepfakes sexuales de mujeres y menores sin consentimiento.
Desde finales del pasado diciembre usuarios suscriptores de X Premium comenzaron a utilizar Grok para generar imágenes realistas sexualizadas, principalmente de mujeres en bikini o ropa interior, lo que provocó una ola de indignación internacional. Grok reconoció "fallos" en sus salvaguardas y afirmó estar trabajando para corregirlos.
Por su parte, el Instituto de las Mujeres ha informado de que ya trabaja en quejas recibidas por el Observatorio de la Imagen de las Mujeres relacionadas con imágenes manipuladas con IA para ridiculizar o sexualizar a mujeres.
Para las afectadas, el Instituto ofrece asesoramiento gratuito y confidencial a través del teléfono 900 191 010. Asimismo, solicita colaboración ciudadana para medir el alcance del fenómeno y reforzar la respuesta institucional, e invita a comunicar casos al Observatorio mediante el correo observatorioimagen@inmujeres.es.
Faltan mujeres en el desarrollo de la IA
En la raíz del problema se encuentra la falta de diversidad en el desarrollo de la inteligencia artificial, según ambas publicaciones del Instituto de las Mujeres.
Solo el 22 % de las personas que trabajan profesionalmente en el ámbito de la IA son mujeres, según un informe reciente del Foro Económico Mundial, una infrarrepresentación que limita la pluralidad de enfoques y condiciona qué datos se seleccionan, qué problemas se consideran prioritarios y qué impactos se evalúan.
En este contexto, el Día Internacional de la Mujer y la Niña en la Ciencia, que se celebra cada 11 de febrero, subraya la urgencia de incorporar a más mujeres al desarrollo de la inteligencia artificial y de garantizar una tecnología diseñada con perspectiva de género, diversidad y derechos humanos.
"La IA la están diseñando básicamente hombres blancos, con las consecuencias de falta de diversidad que eso implica", advertía durante una entrevista con EFE la subdirectora de la UNESCO, Gabriela Ramos, cuya institución ha cuantificado en menos del 20 % el número de mujeres que trabajan en las grandes compañías de diseño y entrenamiento de los algoritmos y nuevas herramientas.
Para la profesora de Ciencias de la Computación de la Universidad Autónoma de Barcelona (UAB) Aura Hernández, el problema no es solamente que la diseñen más hombres, sino que estos no tengan perspectiva de género. "La tecnología en general tiene a más profesionales masculinos y la IA no va a esperar a la igualdad. Los hombres también deberían velar por ella", advierte.
Por Laura de Grado Alonso
Fuente: Efeminista





