Paradojas de la historia, fue una mujer, Ada Lovalace, la primera programadora que escribió un algoritmo para una máquina computadora a mediados del siglo XIX. También fueron pioneras durante la Segunda Guerra Mundial las programadoras de la ENIAC, la primera computadora electrónica. Sin embargo, precisamente dichos algoritmos de los que fueron precursoras, pueden resultar una amenaza para la igualdad, ya que la Inteligencia Artificial (IA) aprende y reproduce los prejuicios de género que estas mujeres ya vivieron hace dos siglos.

No es culpa de las máquinas, sino de la historia de las personas

Se define a la Inteligencia Artificial (IA) como “la capacidad de un sistema para interpretar correctamente datos externos, para aprender de dichos datos y emplear esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible*.

Los algoritmos se emplean en el análisis de enormes cantidades de datos que se agrupan basándose en generalizaciones. Una información que por dicha generalización, tiende por lo tanto a perpetuar estereotipos. Es decir, la IA aprende de los datos de los últimos 10-20 años y repite los sesgos que se han dado en esa época, ya que muchos de los avances sociales de la actualidad no se encuentran en los datos que manejan o son minoritarios.

Son estos sesgos generados por las personas, los que llevan a errores sistemáticos en los algoritmos. Se repite por ejemplo, la discriminación histórica hacia la mujer y se reflejan los valores de la sociedad que la creó. Un aprendizaje automático y heredado, que influye en la discriminación de género, pero que también va en contra de cualquier tipo de diversidad, al privilegiar toda una serie de patrones.

Programar contra la brecha de género

En la actualidad, se están desarrollando iniciativas destinadas a abordar el problema de los sesgos algorítmicos, conscientes de los retos que supone el hecho de que esta tecnología pueda ahondar o perpetuar las brechas sociales. A menudo surgen noticias sobre fallos anecdóticos, pero a gran escala estos sesgos son un grave problema, ya cada vez se usan más los algoritmos para la toma de decisiones importantes. Por ejemplo, ¿quién puede acceder y quién no a una entrevista de trabajo o a una hipoteca? Respuestas que a día de hoy se dan utilizando algoritmos que manejan datos sobre el color de la piel, el estado civil, el código postal o los ingresos.

Entre las soluciones que se proponen, por ejemplo se optó por eliminar los datos de género, raza y otras características. Sin embargo se observó que en  el aprendizaje automático de las máquinas, los modelos entrenados con datos históricos se basan en otras variables y amplifican aún más las desigualdades del pasado. Por ello hay estudios que recomiendan mantener dichas características, para tener así un mayor control a la hora de medir, revertir sesgos y conseguir resultados más igualitarios.

Aumentar la presencia de las mujeres en ciencia y tecnología

El sector de la programación se masculinizó en la década de los 80´y desde entonces las mujeres son minoría en el sector TIC. En España, por ejemplo, solo el 13% por ciento de las programadoras son mujeres. Una desigualdad que se traslada inconscientemente en la programación y en los algoritmos.

La matemática del MIT Cathy O’Neil  ya advirtió en su ensayo “Armas de destrucción matemática” publicado en 2016, que los sesgos sexistas de los programadores se trasladan a los algoritmos y al software que diseñan.

Por ello se hace necesaria una labor de concienciación y formación para aprender a detectar los sesgos y fomentar la creación de equipos diversos, capaces de eliminar prejuicios y ofrecer diferentes perspectivas de las que las máquinas aprendan.

Una necesidad que se empieza a tener en cuenta en los nuevos reglamentos de la Unión Europea de cara al desarrollo de la IA. Y que van encaminadas a fomentar equipos multidisciplinares y con mayor representatividad de las mujeres. Con un claro objetivo, conseguir justo lo contrario que sucede ahora, que las máquinas nos ayuden a conseguir la igualdad y a no volver atrás.