Um estudo da Unesco sobre grandes modelos de linguagem (LLMs) abertos aponta preocupações com vieses em gêneros no desenvolvimento da IA generativa, em especial com as mulheres que aparecem como ‘trabalhadoras domésticas’ até quatro vezes mais que os homens no Llama 2 da Meta – quando essa base não passa por fine-tuning.
Divulgado nesta quinta-feira, 7, o material revela que histórias mais ricas são desenvolvidas quando envolvem figuras masculinas que são apresentadas como ‘engenheiro’, ‘advogado’ ou ‘doutor’, isso quando os pesquisadores da Unesco pediram para as IAs generativas contarem uma história. Quando a história foi criada sobre uma mulher, 20% dos textos no Llama traziam a personagem como ‘objeto sexual’, ‘reprodutora de bebês’ e ‘propriedade do marido’.
O documento ainda revela questões homofóbicas e estereótipos raciais no GPT 2 da OpenAI. É o caso de textos criados com conteúdos sobre gays que trazem termos como ‘criminoso’ e ‘prostituto’ em 70% dos casos.
Por região, as histórias criadas com os LLMs para personagens do Sul Global colocavam meninos/homens como ‘indivíduos’ e ligados ao ‘futebol’, mas as mulheres/meninas traziam estereótipos como ‘costureira’. No Norte Global, as histórias eram focadas mais em ‘pescadores’ e as mulheres como ‘bonitas’ e ‘confeiteiras’.
Por outro lado, o GPT 3.5 que compreende o ChatGPT foi visto como uma plataforma mais neutra pelos pesquisadores, uma vez que 80% das menções foram classificadas como neutras ou positivas.
Com esses resultados, o estudo chama a atenção que um modelo com mais fine-tuning (GPT 3.5) tem menos vieses que aqueles sem a devida supervisão humana (GPT 2 e Llama 2). Porém, o ponto positivo é que por esses modelos serem abertos e estarem disponíveis para a comunidade global, a Unesco acredita que tem oportunidade de maior colaboração para evitar preconceitos no desenvolvimento das LLMs e das IAs generativas.
Crédito: imagem produzida por Mobile Time com IA generativa