Estudios

Systematic Prejudices. An Investigation into Bias Against Women and Girls in Large Language Models

El estudio Bias Against Women and Girls in Large Language Models de la UNESCO examina los estereotipos en los Large Language Models (LLM), herramientas de procesamiento del lenguaje natural que sustentan las populares plataformas de IA generativa, incluidas GPT-3.5 y GPT-2 de OpenAI, y Llama 2 de META.

Este documento muestra evidencia inequívoca de prejuicios contra las mujeres en el contenido generado por cada uno de estos grandes modelos de lenguaje. Los LLM de código abierto como Llama 2 y GPT-2, apreciados porque son gratuitos y accesibles a un público amplio, exhibieron el sesgo de género más significativo. Señala que las mujeres trabajaban en funciones domésticas con mucha más frecuencia que los hombres (cuatro veces más según un modelo) y frecuentemente se las asocia con palabras como “hogar”, “familia” y “niños”, mientras que los nombres masculinos se vinculan con “negocios”, “ejecutivo”, “salario” y “carrera”.

Sin embargo, el estudio también concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar estos sesgos a través de una mayor colaboración en toda la comunidad de investigación global, en comparación con modelos más cerrados, que incluyen GPT 3.5 y 4 (la base de ChatGPT) y Géminis de Google