Algoritmos sin interseccionalidad: un nuevo mecanismo de exclusión para las mujeres y las niñas con discapacidad

Imagen Pilar Villarino
Con motivo de la conmemoración del 8 de marzo, Día Internacional de la Mujer, este artículo comparte algunas reflexiones sobre el impacto de la inteligencia artificial en las mujeres y las niñas con discapacidad

La tecnología no es neutral

Cada 8 de marzo, el Día Internacional de la Mujer nos convoca a examinar las estructuras de poder que perpetúan la desigualdad y la violencia contra las mujeres y las niñas. Las mujeres con discapacidad han librado históricamente esta batalla en los márgenes: enfrentándose a una matriz de discriminación en la que el capacitismo y el patriarcado no se suman, sino que se multiplican. En la era de la transición digital, esa multiplicación encuentra un nuevo soporte: el ecosistema de la Inteligencia Artificial.

Existe una creencia extendida —y profundamente equivocada— de que los sistemas de IA son objetivos porque son matemáticos. Los algoritmos, sin embargo, no son entidades pensantes: son motores estadísticos que aprenden identificando patrones en datos históricos producidos por sociedades que nunca fueron neutras. La tecnología no hereda la objetividad; hereda los sesgos. Y cuando esos sesgos se entrecruzan —los de género y los de discapacidad—, el resultado no es una suma, sino una multiplicación del daño.

Lo que desde el análisis de derechos humanos aplicado a la IA denominamos «penalización amplificada» describe precisamente esto: la capacidad de los sistemas automatizados para perjudicar de forma sinérgica a quienes pertenecen simultáneamente a varios grupos discriminados. Los sistemas de decisión algorítmica evalúan el género por un lado y la discapacidad por otro, en categorías estancas e impermeables. Al fragmentar estas identidades, son incapaces de detectar las vulnerabilidades cruzadas y dejan a las mujeres con discapacidad en una desprotección que la norma, hasta hoy, tampoco ha sabido corregir.

El efecto de habitar la “sombra de datos”

El ciclo de vida de cualquier sistema de IA comienza con los datos. En este ecosistema, lo que no se nombra o no se cuantifica sencillamente no existe para la máquina. Las mujeres y niñas con discapacidad habitan lo que desde la doctrina internacional se ha denominado la «sombra de datos»: su realidad biográfica, social y económica está sistemáticamente ausente de los conjuntos de entrenamiento tecnológico o, cuando aparece, se encuentra codificada a través de un prisma asistencialista y estereotipado.

La Convención sobre los Derechos de las Personas con Discapacidad (CDPD) exige a los Estados la recopilación de datos adecuados y desglosados para formular políticas de protección. Al entrenar sistemas de IA con bases de datos que ignoran la realidad de las mujeres con discapacidad, se construyen infraestructuras digitales que, por diseño, son incapaces de reconocer y proteger sus derechos fundamentales. La omisión estadística se convierte así en omisión jurídica.

El marco normativo europeo, el Reglamento de Inteligencia Artificial (RIA), presenta lo que cabe calificar como una insuficiencia estructural frente a este problema: obliga a evaluar el sesgo de género por un lado y el sesgo por discapacidad por otro. Esta visión fragmentada crea una ilusión de cumplimiento. Si un desarrollador audita su algoritmo frente al sexismo utilizando perfiles de mujeres sin discapacidad, y lo audita frente al capacitismo utilizando perfiles de hombres con discapacidad, la herramienta superará los controles de calidad. Sin embargo, en la práctica, castigará de forma sistemática a las mujeres con discapacidad. La CDPD y la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (CEDAW) obligan a otro enfoque: uno que comprenda la interseccionalidad no como opción metodológica, sino como mandato.

La violencia de género algorítmica

La irrupción de la IA generativa ha dotado a la violencia de género de nuevas y sofisticadas formas de ejercerse. No se trata solo de que la tecnología facilite determinadas conductas: se trata de que la propia arquitectura de ciertos sistemas reproduce y amplifica relaciones de dominación. Las mujeres con discapacidad se encuentran en una posición de especial exposición, precisamente porque la intersección de sus vulnerabilidades las convierte en objetivo preferente y, al mismo tiempo, en víctimas invisibles para los mecanismos de protección.

La creación y difusión de pornografía sintética no consentida (deepfakes) ilustra con particular crudeza esta dinámica. Las mujeres y adolescentes con discapacidad presentan una alta exposición a estas agresiones porque, con frecuencia, las barreras en el entorno físico las hacen más dependientes de los espacios digitales para su socialización y desarrollo personal. Cuando son víctimas de esta forma de ciberviolencia, se topan con un muro adicional: las interfaces y mecanismos de denuncia de las grandes plataformas tecnológicas carecen de accesibilidad. La falta de accesibilidad no es un déficit secundario: en la práctica, imposibilita el ejercicio del derecho a la tutela y opera como una forma de revictimización silenciosa. La CEDAW, en su Recomendación General 35, reconoce explícitamente la violencia de género en entornos digitales; la CDPD exige que los mecanismos de protección sean accesibles. Ambas obligaciones se incumplen simultáneamente.

Pero la violencia facilitada por la IA no se limita a la esfera de la intimidad. Se infiltra también en los entornos laborales y en la autonomía económica. En el ámbito laboral, se detecta el uso desproporcionado de software de monitorización o vigilancia laboral encubierta. contra trabajadoras con discapacidad, particularmente aquellas que ejercen su derecho a solicitar ajustes razonables. Lo que debería ser una garantía legal se convierte, paradójicamente, en un detonante de vigilancia y hostigamiento institucional.

En la esfera de la independencia económica, los algoritmos bancarios de detección de fraude bloquean de manera automatizada las cuentas de mujeres con discapacidad ante patrones de gasto que la máquina clasifica como «inusuales», sin posibilidad de explicación accesible. Esta decisión algorítmica, tomada en fracciones de segundo y sin intervención humana, puede resultar crítica para una mujer que necesita acceder a sus propios fondos para salir de una situación de maltrato. El algoritmo, entrenado para prevenir el fraude, se convierte involuntariamente en un aliado del agresor.

Existe, además, una dimensión de la violencia algorítmica que afecta al espacio público y político. Las plataformas de microsegmentación y recomendación de contenidos amplifican el odio misógino y capacitista, combinándolos en campañas de hostigamiento específicamente diseñadas para disuadir a las mujeres con discapacidad de participar en la vida pública. La represalia digital actúa como mecanismo de exclusión de la esfera cívica, erosionando derechos reconocidos tanto en la CDPD como en la CEDAW.

Los sesgos algorítmicos en el acceso a la justicia

Si hay un ámbito donde la aparente neutralidad de la IA produce consecuencias especialmente graves, es en la administración de justicia. La implantación de herramientas basadas en el Procesamiento del Lenguaje Natural (PLN) para evaluar denuncias, atestados o testimonios introduce un sesgo de fondo que merece atención específica.

Estos algoritmos están configurados para valorar positivamente la «linealidad, consistencia y coherencia temporal» del relato. Se trata de parámetros construidos sobre una noción de credibilidad profundamente neurotípica, que asume como norma un tipo de comunicación que no es universal. Cuando una mujer con discapacidad intelectual o psicosocial que ha sufrido violencia se enfrenta a estos sistemas, su testimonio —fragmentado, con saltos temporales o expresiones atípicas derivadas de su propia condición o del trauma vivido— es clasificado automáticamente como «poco creíble» o su caso marcado como de «bajo riesgo». No hay intención discriminatoria detrás del algoritmo, pero el efecto es el mismo: la discriminación se institucionaliza y se automatiza. La CDPD obliga a garantizar el acceso a la justicia mediante ajustes de procedimiento; la CEDAW, en su Recomendación General 33, exige igualdad ante la ley para las mujeres. Ambos mandatos quedan en suspenso cuando la herramienta técnica no ha sido diseñada para comprenderlos.

Este mismo sesgo estructural perjudica a las mujeres con discapacidad en los procedimientos de protección internacional. Los sistemas algorítmicos utilizados en los procesos de asilo evalúan las vulnerabilidades de forma compartimentada, y son incapaces de procesar narrativas de victimización cruzada: la mujer que huye simultáneamente de la persecución por razón de discapacidad y de la violencia sexual no encaja en las categorías que el modelo reconoce. El resultado son denegaciones automatizadas que, en algunos casos, comprometen directamente la vida de las personas afectadas.

El impacto en las niñas y las adolescentes

La falta de perspectiva interseccional en la IA no solo afecta al presente de las mujeres con discapacidad: compromete también el futuro de las niñas y adolescentes. En los entornos digitales y redes sociales, las herramientas algorítmicas de moderación de contenido han sido diseñadas sin incorporar el enfoque de discapacidad. Como consecuencia, son sistemáticamente incapaces de detectar el acoso digital híbrido: ese lenguaje que entrelaza insultos capacitistas con violencia misógina y que, precisamente por su carácter combinado, los filtros automáticos no están entrenados para reconocerlo. Las jóvenes con discapacidad quedan desprotegidas frente a formas de ciberacoso que no solo dañan su salud mental, sino que las empujan a abandonar los espacios digitales en los que, paradójicamente, muchas encuentran comunidad y apoyo.

En el ámbito educativo, los sistemas de recomendación y orientación académica reproducen sesgos históricos con una eficiencia que ningún orientador humano podría igualar. El algoritmo perfila a las alumnas con discapacidad hacia itinerarios de bajo perfil técnico, alejándolas de las ramas de Ciencias, Tecnología, Ingeniería y Matemáticas (CTIM). La segregación no se produce mediante una decisión explícita y cuestionable: se produce mediante miles de pequeñas recomendaciones automatizadas que, acumuladas, cierran trayectorias antes de que las propias interesadas hayan podido elegir. Esto vulnera el derecho a la educación inclusiva que recoge la CDPD y la obligación de la CEDAW de eliminar los estereotipos en el acceso a los programas de estudio.

La Observación General 25 del Comité de los Derechos del Niño ofrece un marco claro: cualquier sistema de IA utilizado en entornos educativos o dirigido a menores de edad debería someterse a una evaluación de impacto en los derechos de la infancia que incorpore obligatoriamente la perspectiva de las niñas y adolescentes con discapacidad. Esta exigencia no es una formalidad burocrática: es la diferencia entre una herramienta que abre oportunidades y una que las clausura silenciosamente, antes de que nadie lo advierta.

La reflexión final para este 8 de marzo

Las mujeres y las niñas con discapacidad se enfrentan a una transición digital que podría consolidar su exclusión con una eficiencia sin precedentes históricos. La Inteligencia Artificial es una infraestructura construida por personas, con decisiones de diseño concretas, con elecciones sobre qué datos recoger y cuáles ignorar, sobre qué grupos incluir en las auditorías y cuáles dejar fuera. Cada una de esas decisiones tiene consecuencias jurídicas y humanas.

La discriminación que genera la IA sobre las mujeres con discapacidad no es, en la mayoría de los casos, intencional. Eso no la hace menos real ni menos grave. Una decisión automatizada que niega credibilidad a una víctima, que bloquea el acceso a fondos en un momento crítico, que cierra silenciosamente la puerta de una carrera técnica a una adolescente, produce el mismo daño con independencia de si hubo o no voluntad de discriminar. La neutralidad que se atribuye a los algoritmos es, en realidad, la neutralidad de quien diseña sin mirar a quienes no se parecen a él.

La respuesta no puede ser solo técnica. Requiere, en primer lugar, que la interseccionalidad deje de ser una recomendación metodológica para convertirse en un requisito de validez legal: ningún sistema de IA debería ser implantado —especialmente en el sector público— sin haber medido y publicado específicamente su impacto sobre las mujeres con discapacidad, como condición previa a su despliegue y no como corrección posterior. Requiere, en segundo lugar, que las propias mujeres con discapacidad participen con capacidad real de decisión en el diseño, la auditoría y la gobernanza de estos sistemas, no como consultadas simbólicas sino como presencia vinculante en los equipos técnicos y en los organismos de estandarización. El principio que ha guiado durante décadas al movimiento de la discapacidad —nada sobre nosotras sin nosotras— es hoy más pertinente y más urgente que nunca. Requiere, en tercer lugar, que los marcos de protección frente a la violencia de género se actualicen para tipificar el control coercitivo tecnológico y el acoso digital interseccional, y que las plataformas y administraciones estén obligadas a garantizar que sus mecanismos de denuncia sean plenamente accesibles. Que el canal para denunciar la violencia sea en sí mismo inaccesible no es un fallo menor: es una segunda discriminación.

Nada de esto será posible si los organismos de supervisión —las autoridades de igualdad, las de protección de datos y las que velan por el cumplimiento del Reglamento Europeo de Inteligencia Artificial— no incorporan la perspectiva interseccional en sus propios instrumentos de control. Supervisar la discriminación algorítmica con las mismas categorías estancas que la producen es garantizar su perpetuación. La coordinación entre estos organismos y los mecanismos independientes de seguimiento de la CDPD no es una cuestión de arquitectura institucional: es una condición de eficacia.

La dignidad humana no admite márgenes de error estadístico que justifiquen la exclusión. Tampoco puede quedar sometida al dictado opaco de sistemas que no han sido diseñados para reconocerla. No existe una tecnología neutral, y nuestra labor es reivindicar una tecnología defensora de los derechos humanos.