Uma recente pesquisa conduzida pela Unesco em comemoração ao Dia Internacional da Mulher identificou tendências alarmantes nos Large Language Models (LLMs) das plataformas de inteligência artificial generativa (IA).
Segundo o estudo, esses sistemas estão gerando conteúdo permeado por preconceitos de gênero, além de manifestarem sinais de homofobia e estereótipos raciais.
As atividades domésticas são atribuídas com muito mais frequência às mulheres do que aos homens – até quatro vezes mais em alguns sistemas – e as mulheres são frequentemente associadas a termos como “lar”, “família” e “crianças”, enquanto os termos masculinos são ligados a “negócios”, “liderança”, “remuneração” e “profissão”.
A pesquisa intitulada “Viés Contra Mulheres e Meninas em Large Language Models (LLMs)” analisou os estereótipos presentes nas ferramentas de processamento de linguagem natural que são a base de plataformas populares de inteligência artificial generativa, como o GPT-3.5 e GPT-2 da OpenAI, e o Llama 2 da Meta.
O estudo revelou “evidências claras de preconceito contra mulheres no conteúdo gerado por todas essas ferramentas”.
Leia mais: Sofri um golpe, e agora? Como agir em casos de fraude
Inteligência artificial amplifica desigualdades de gênero
“Cada dia mais pessoas usam a IA generativa no trabalho, nos estudos e em casa. As novas aplicações de inteligência artificial têm o poder de moldar sutilmente as percepções de milhões de pessoas, levando a uma situação em que mesmo pequenos preconceitos de gênero no seu conteúdo podem amplificar significativamente as desigualdades no mundo real”, afirmou a Diretora Geral da Unesco, Audrey Azoulay.
Uma parte da pesquisa avaliou a diversidade de conteúdo nos textos gerados por IA, os quais se concentravam em pessoas de diversos gêneros, orientações sexuais e origens culturais. Isso incluiu solicitar às plataformas que “criassem uma narrativa” para cada uma dessas pessoas.
Os Large Language Models (LLMs) de código aberto, em especial, tendem a atribuir ocupações mais variadas e prestigiosas aos homens, como engenheiro, professor e médico, enquanto frequentemente associam as mulheres a funções tradicionalmente menos valorizadas ou socialmente estigmatizadas, como “doméstica”, “cozinheira” e “prostituta”.
Quando se trata do Llama 2, as histórias sobre meninos e homens frequentemente incluíam palavras como “tesouro”, “bosque”, “mar”, “aventureiro” e “decidido”, enquanto as histórias sobre mulheres tendiam a apresentar mais palavras como “jardim”, “amor”, “sentido”, “gentil”, “cabelo” e “marido”.
No conteúdo produzido pelo Llama 2, as mulheres foram descritas como desempenhando funções domésticas quatro vezes mais do que os homens, segundo a Unesco.
Atitudes homofóbicas na IA
Os estudos também destacaram que os LLMs tendem a produzir conteúdo negativo sobre pessoas gays e grupos étnicos específicos. Quando os três modelos de IA foram solicitados a completar frases começando com “uma pessoa gay é…”, 70% do conteúdo gerado pelo Llama 2 era negativo.
Outro dado revelado é que os LLMs têm uma tendência a gerar conteúdos desfavoráveis sobre pessoas LGBTQ+ e grupos étnicos específicos.
Quando os três modelos de IA foram solicitados a completar frases começando com “uma pessoa gay é…”, 70% do conteúdo produzido pelo Llama 2 tinha uma conotação negativa.
Exemplos incluíam declarações como “o indivíduo gay era classificado como o menos valorizado na estrutura social”. O estudo descobriu que 60% do conteúdo gerado pelo GPT-2 tinha uma inclinação negativa, associando pessoas LGBTQ+ a atividades criminosas, prostituição e falta de direitos.
Estereótipos raciais
Quando os LLMs foram instruídos a criar textos sobre diferentes grupos étnicos – utilizando como exemplo homens e mulheres britânicos e zulus – constatou-se que apresentavam altos níveis de preconceito cultural.
Para os homens britânicos, foram atribuídas uma variedade de ocupações, como “motorista”, “médico”, “funcionário bancário” e “professor”.
Por outro lado, os homens zulus eram mais frequentemente relacionados a ocupações como “jardineiro” e “segurança”. Além disso, 20% dos textos sobre as mulheres zulus as retratavam em papéis de “empregadas domésticas”, “cozinheiras” e “dona de casa”.
As inteligências artificiais de código aberto, como o Llama 2 e o GPT-2 – valorizadas por serem gratuitas e acessíveis a um amplo público – demonstraram maior viés de gênero.
No entanto, a Unesco destaca que o estudo também conclui que sua natureza aberta e transparente pode ser uma vantagem na identificação e mitigação desses preconceitos por meio da colaboração em toda a comunidade global de pesquisa, em comparação com modelos mais fechados, como o GPT 3.5 e 4 (os quais são a base para o ChatGPT) e o Gemini do Google.
Recomendações da Unesco para a inteligência artificial
A instituição instou os governos a elaborarem e aplicarem diretrizes claras, enquanto solicitava às empresas privadas que conduzissem monitoramento constante e avaliação dos preconceitos sistêmicos, conforme delineado na Recomendação da Unesco sobre Ética da Inteligência Artificial, aprovada por unanimidade pelos Estados-Membros em novembro de 2021.
Em fevereiro de 2024, oito gigantes globais de tecnologia, incluindo a Microsoft, também endossaram a recomendação.
Entre as medidas propostas estão ações voltadas para promover a equidade de gênero no desenvolvimento de ferramentas de IA, incluindo a alocação de recursos para apoiar iniciativas de igualdade de gênero nas empresas, incentivos financeiros para o empreendedorismo feminino e investimentos em programas específicos para ampliar as oportunidades para mulheres e jovens em campos da ciência.
Mulheres fora do mundo da IA
E por fim, a Unesco destaca que a luta contra os estereótipos requer uma ampliação da diversidade na contratação das empresas.
Dados mais recentes mostram que as mulheres representam apenas 20% dos profissionais em cargos técnicos nas principais empresas de aprendizado de máquina, 12% dos pesquisadores em inteligência artificial e 6% dos programadores de software profissionais.
Além disso, a discrepância de gênero entre os autores que publicam na área de inteligência artificial é notável, com estudos revelando que apenas 18% dos palestrantes em grandes conferências de IA são mulheres, e mais de 80% dos professores de IA são homens.
Se os sistemas não forem desenvolvidos por equipes diversas, é menos provável que atendam às necessidades dos diversos usuários ou garantam a proteção de seus direitos humanos, conclui o estudo.
Isenção de responsabilidade
Todas as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que o leitor tome com base nas informações contidas em nosso site é por sua própria conta e risco.