Formas inclusivas de pensar la tecnología

Mujeres en los datos, sesgos e invisibilidad

Formas inclusivas de pensar la tecnología

Hablamos de momentos de poder, porque la construcción de algoritmos y la datificación (transformar en datos) pasan por decisiones que trascienden a todos los ámbitos y no siempre son adoptadas por mujeres, ni mucho menos por mujeres con discapacidad. Es más, tal y como se afirma en este diálogo, con demasiada frecuencia, las fórmulas algorítmicas actuales corresponden a pensamientos de hace más de 300 años, pensamientos eugenistas, sexistas, capacitistas, racistas… En el caso de las mujeres y niñas con discapacidad, para evitar que se perpetúen los sesgos actuales, es necesario que participen en el diseño, validación y entrenamiento de algoritmos y en la toma de decisiones.

 

El diálogo que se celebra en Servimedia, dentro del Proyecto Metadiverso, dedicado a la transformación digital del movimiento CERMI, parte de la idea de que la transformación digital solo es verdadera transformación si es transformación social, y así lo señala Pilar Villarino, directora ejecutiva del CERMI y secretaria del Patronato de la Fundación CERMI Mujeres, al inicio del encuentro, que modera José Manuel González Huesa, director de cermi.es diario y director general de Servimedia.

Para que la Inteligencia Artificial (IA) sea aliada de la inclusión, los datos tienen que ser también aliados de la inclusión y la barrera a la que se enfrentan las mujeres es la “gran invisibilidad en los datos y los sesgos de género que ejercen estos datos”, explica Villarino. Desde el movimiento CERMI, afirma, “tratamos de revertir y luchar contra esas barreras en diferentes líneas, una de ellas es un plan de algoritmos sociales y de inclusión que hemos impulsado junto con la Fundación ONCE para que se tenga en cuenta a las mujeres y a las niñas con discapacidad”.

Con este plan de algoritmos de inclusión, según explica Carmen Gómez Rozalén, miembro del Grupo del proyecto MetaDiverso, “queremos analizar el impacto negativo y positivo de los algoritmos actuales, y cómo podemos utilizarlos como aliados de la inclusión”. Otro objetivo que apunta es el de fomentar la participación de las personas con discapacidad como personas validadoras de estos algoritmos, “sobre todo con enfoque de género”. “Que participen en los algoritmos en toda la vida del mismo: diseño, validación y entrenamiento del algoritmo, para que las mujeres con discapacidad sean más tenidas en cuenta”. 

Gómez Rozalen apunta la importancia de fomentar la formación de las mujeres con discapacidad en estas áreas, una cuestión en la que todas las participantes están de acuerdo y lo destacan como objetivo primordial. Concluye su intervención afirmando también que resulta necesario, para luchar contra los sesgos, que las propias mujeres con discapacidad accedan a puestos de dirección y de toma de decisiones.

Digitalizar y empoderar

Concha Díaz, presidenta de la Fundación CERMI Mujeres, parte de la idea de que “cuando hablamos de cómo se realizan los algoritmos, las mujeres con discapacidad se ven doblemente afectadas por ser mujer y por ser una persona con discapacidad”. A la hora de hablar de inclusión en IA, es muy importante combatir dos líneas que afectan a este sector, como son la invisibilidad y la omisión de algunos datos relacionados con la mujer y la niña con discapacidad actuales. Sin embargo, advierte de “la discriminación que llevamos sufriendo en los datos ya recogidos” y explica que toda esa literatura de datos ha quedado recogida a lo largo de los años con muchos sesgos de género y muchos de discapacidad.

“Es fundamental que esto se coordine y se trabaje previamente”, asevera, “necesitamos más número de datos que representen a todas las mujeres con discapacidad, pero también que sean mejores, necesitamos que los algoritmos estén bien diseñados desde la base y bien contrastados por parte de las personas con discapacidad”.

Advierte Concha Díaz de que la Unesco habla de la dignidad a través del sistema de la IA, y explica la IA “no puede dañar la dignidad de los derechos de las mujeres con discapacidad porque esto significa que continúa dañando a las siguientes generaciones y continúa dañando sus derechos humanos sin ningún fundamento”. De ahí que la postura de CERMI y de la Fundación CERMI Mujeres es que cualquier innovación tecnológica tiene que venir de la mente humana, para no crear discriminaciones, al contrario, que desparezcan.

Rechaza cualquier brecha digital y advierte que es muy importante que “las mujeres con discapacidad sean conscientes y sepan de lo que estamos hablando, lo que implican las nuevas tecnologías, cómo nos benefician o nos afectan y cómo afectan a mis derechos”. En cualquier caso, relata, “se está haciendo una labor preciosa por parte de la Fundación CERMI Mujeres de concienciación y uso de las redes sociales, digitalizando, empoderando y haciendo seguimiento para que no haya brecha digital”. Concluye explicando que no es experta en algoritmos ni IA, pero observa cómo le influye en distintos ámbitos de su vida diaria, y avisa: “la IA está creada por personas que se encargan de volcar datos, y hay que ver qué tipo de datos y de algoritmos se incluyen y quién incluye y crea ese tipo de datos porque en esos puestos de decisión, las mujeres son invisibles… si hay poca representación de la mujer o es inexistente, ahí no se ve la diversidad de la mujer ni de la mujer con discapacidad”.

Zaira Vicente Adame, especialista en pensamiento estratégico creativo, afirma que cada vez se ven más alumnas mujeres en los másteres y posgrado de IA, pero no tienen presencia de otros colectivos minoritarios. Según explica, en el ámbito de la planificación de los proyectos para construir algoritmos sin sesgos, le gusta llamarlos algoritmos igualitarios, es cierto que “los sesgos parten de las personas, pero es que los sesgos están en la calle… son sesgos culturales, educacionales…”

En la construcción de algoritmos, enumera tres grandes líneas de trabajo: depuración de datos y hacer un protocolo de seguimiento de los datos; depuración de los propios algoritmos, con el modelado y la auditoría, la revisión para que los algoritmos no aprendan de manera sesgada; y finalmente, “sencillo pero impactante”, asegura que “lo más importante es crear equipos multidisciplinares y diversos y apunta también, para concluir, la importancia de trabajar desde la formación, hasta la concienciación, pero no solo en el plano de la IA y la tecnología, lo tenemos en la calle”.

Momentos de poder

“La datificación es un momento de poder”, asegura Lorena Jaume-Palasí, fundadora y directora ejecutiva de Ethical Tech Society. Esta experta habla de las “formas de pensar la tecnología”, de formas distintas a la actual o tradicional, que parten de una “posición primordialmente masculina, blanca, de hombres capacitados y con una edad media de entre 30 y 50 años; cuando se piensa desde otras perspectivas surgen ideas completamente diferentes”.

En su intervención explica que es autora de un informe sobre perspectiva interseccional en relación a sesgos de género y asegura que “pensamos que la paridad de la datificación nos llevará a una igualdad de datos, pero las personas con discapacidad están sobrerrepresentadas en unos sectores, pero infrarrepresentadas en otros”.

Asegura además que la idea de género va asociada a un concepto eugenista del ser humano, “partían de la idea de que el género es algo binario (hombre/mujer) y solo se refleja en las razas superiores”. Entonces habla de los atributos, de los que no se consideran ‘lo normal’ (posición blanca, masculina y capacitada), y de todo lo demás, que es divergente y estadísticamente se considera fuera de lo normal; sentencia: “cuantos más atributos fuera de lo normal tenga una persona (como puede ser la discapacidad, color no blanco, una persona trans…) más afectada será de forma discriminatoria, porque la dataficación también es un momento de poder”.

En la clasificación, en la creación de datos y categorías, asegura que “creamos cajones en los que metemos a la persona: mujer, hermana, blanca, con discapacidad, desempleada… y cada cajón o categoría tiene su conjunto de prejuicios, que están dentro de nuestra idea y esos cajones impiden añadir contexto; con lo cual, cuando hablamos de dataficación, hablamos de estandarización, creación de prejuicios y universalización de ese tipo de prejuicios.”

Y entonces surge una gran duda, ¿tenemos que dataficar todo? “Hay cosas que van más allá de la datificación y hay momentos sociales en los que no podemos utilizar la IA, ningún tipo de automatización; vamos a tener que entender para qué contextos tiene sentido utilizar la dataficación y quizás no tenga sentido hacerlo de forma universalista, sino en tecnologías más pequeñas”.

Concluye afirmando que “la digitalización no implica siempre progreso o modernización porque puedo digitalizar conceptos altamente antiguos, que es lo que estamos haciendo de momento, porque la forma en que digitalizamos, las fórmulas algorítmicas que estamos utilizando corresponden a pensamientos de hace más de 300 años, pensamientos eugenistas, sexistas, capacitistas, racistas…”

Perpetuar sesgos

Desde la Fundación ONCE, explica Sabina Lobato, directora de Formación, Empleo, Operación y Estudios de Fundación ONCE, “llevamos ya varios años con la IA y muy conscientes de cómo los datos pueden ayudar a visibilizar la diversidad que hay en la discapacidad y a no enclaustrar en cajones las realidades, cuando hay mucha información de contexto que hay que tener en cuenta”.

Hace más de diez años, cuando crearon Odismet, realizaron “un esfuerzo tremendo para aglutinar en un espacio todo lo disponible de estadística pública sobre personas con discapacidad y esto nos sitúa en una posición, en España, en la que podemos presumir de contar con una información muy granular de las distintas realidades de la discapacidad miradas desde diferentes ópticas, la óptica laboral, de formación, prestaciones, incluso la económica”. Es una información muy rica, afirma, pero “en todo lo que tiene que ver con la IA, la principal cuestión es ver las maneras de evitar que se perpetúen los sesgos (recuerda entonces el libro ‘Armas de destrucción matemática’) y la principal manera de que esto pueda ser positivo es aportando soluciones y participando en la toma de decisiones, que entendamos y haya mayor conocimiento en general de la sociedad”.

Desde su experiencia en el ámbito de la formación, ha podido comprobar que la predominancia de los hombres en el ámbito de la tecnología sigue siendo destacada, algo que ocurre también en otros ámbitos, como el universitario o las escuelas de negocio, donde la mujer apenas ocupa el 20% de las plazas. “Mientras eso sea así y parece que no vamos a poder revertirlo a corto plazo, es importante que los hombres hablen también del sesgo en la IA y en los datos, que haya hombres en estas charlas y encuentros”.

Una idea que no comparten sin embargo algunas mujeres de este diálogo, como Lorena Jaume-Palasí, quien afirma tajante que “ya hay muchas voces de hombres”. “Debemos escuchar a las mujeres gitanas, con discapacidad, afrodescendientes… aprender de ellas las alternativas que hay a la digitalización”. Y aprovecha para finalizar con una crítica a Chatgpt, asegurando que “este tipo de tecnologías no aporta conocimiento, sus resultados no son científicos, lo que hace es imitar estilos, pero no entiendo lo que hace y no saca información más eficiente; este tipo de sistemas crean mucho ruido y con ello no tenemos más información sino más caos informativo”.

Por su parte, Concha Díaz recuerda que “la innovación tecnológica nos ha favorecido mucho en España a las personas con discapacidad y nos ha dado mayor autonomía, pero no todos los desarrollos tecnológicos son malos o son buenos, en cualquier caso, no podemos permitir la brecha digital como la que hay actualmente para las mujeres y las niñas con discapacidad en nuestro país y en el mundo; hay un porcentaje muy alto de problemas de conectividad, de acceso a las estructuras tecnológicas, de problemas de alfabetización digital …” Además de formar y crear, indica, “tenemos la obligación de hacer un seguimiento a la administración pública y a las entidades privadas, que son las promotoras de servicios y productos y sin ese control, tenemos que hacerlo y exigir normativa y transparencia, incluso decir que no a cosas que no están bien”.

Para concluir el diálogo, Pilar Villarino resume afirmando que “la brecha de datos es una barrera más a la inclusión de las mujeres, especialmente de las mujeres y las niñas con discapacidad, madres y cuidadoras de personas con discapacidad y desde el movimiento CERMI tenemos que combatirla”. Advierte, además, que los sesgos que ya se dan en la vida real, resultan muy amplificados con los algoritmos.

La forma de evitar esas brechas y sesgos pasa por el empoderamiento de las mujeres con discapacidad para que participen en los datos en varias fases:

1. Formando parte de ellos, dejando de ser las grandes invisibles y olvidadas. De ahí las grandes peticiones de agenda de la FCM: macroencuesta violencia, datos base de políticas públicas desagregados por sexo y discapacidad, alfabetización digital de las mujeres y niñas con discapacidad.

2. Formándose como analistas y científicas de datos, como ingenieras informáticas. Impulsando la creación de algoritmos inclusivos.

3. Ocupando los puestos donde se toman decisiones basadas en datos, especialmente en materia de políticas públicas.

4. Siendo lideresas que crean opinión.

5. Impulsando desde el activismo del movimiento CERMI la lucha contra los sesgos de género y discapacidad.

Finalmente, considera esenciales las alianzas con todos los actores concernidos, siguiendo el dictado de Naciones Unidas y la Convención sobre Derechos de las Personas con Discapacidad.