De acordo com um estudo, os padrões linguísticos são mais suscetíveis de associar os nomes femininos a palavras como "casa", "família" ou "filhos", enquanto os nomes masculinos são mais suscetíveis de serem associados às palavras "negócio", "salário" ou "carreira".
Os principais modelos linguísticos da Meta e da OpenAI, na base de ferramentas de inteligência artificial generativa, transmitem preconceitos sexistas, advertiu hoje a Organização da ONU para a Educação, a Ciência e a Cultura (Unesco).
REUTERS/Dado Ruvic
Os modelos GPT 2 e GPT 3.5 da OpenAI, este último na base da versão gratuita do ChatGPT, bem como o Llama 2 do concorrente Meta, apresentam "provas inequívocas de preconceitos contra as mulheres", afirmou a Unesco, num comunicado de imprensa, na véspera do Dia Internacional da Mulher.
"A discriminação no mundo real não se reflete apenas na esfera digital, mas é também amplificada aí", salientou o diretor-geral adjunto da Unesco para a Comunicação e Informação, Tawfik Jelassi.
De acordo com um estudo, realizado entre agosto de 2023 e março de 2024, estes padrões linguísticos são mais suscetíveis de associar os nomes femininos a palavras como "casa", "família" ou "filhos", enquanto os nomes masculinos são mais suscetíveis de serem associados às palavras "negócio", "salário" ou "carreira".
Os investigadores também pediram a estas interfaces que produzissem histórias sobre pessoas de diferentes origens e géneros.
Os resultados mostraram que as histórias sobre "pessoas de culturas minoritárias ou mulheres eram frequentemente mais repetitivas e baseadas em estereótipos".
Um homem inglês tinha mais probabilidades de ser apresentado como professor, motorista ou empregado bancário, enquanto uma mulher inglesa era apresentada em pelo menos 30% dos textos gerados como prostituta, modelo ou empregada de mesa.
Estas empresas "não estão a conseguir representar todos os utilizadores", disse Leona Verdadero, especialista em políticas digitais e transformação digital na UNESCO.
Estas aplicações de inteligência artificial (IA), cada vez mais utilizadas pelo público em geral e pelas empresas, "têm o poder de moldar a perceção de milhões de pessoas", salientou Audrey Azoulay, diretora-geral da organização da ONU.
"Assim, a presença de um mínimo preconceito sexista nos conteúdos pode aumentar significativamente as desigualdades no mundo real", acrescentou, na mesma nota.
Para combater estes preconceitos, a Unesco recomendou que as empresas do setor tenham equipas de engenharia mais diversificadas, sobretudo com mais mulheres.
De acordo com dados do Fórum Económico Mundial, as mulheres representam apenas 22% dos membros das equipas que trabalham em IA em todo o mundo.
O organismo da ONU pediu igualmente aos governos para que introduzam mais regulamentação para garantir uma "inteligência artificial ética".
Para poder adicionar esta notícia aos seus favoritos deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.
O humor deve ser provocador, desafiar convenções e questionar poderes. É um pilar saudável da liberdade de expressão. Mas quando deixa de ser crítica legítima e se transforma num ataque reiterado e desproporcional, com efeitos concretos e duradouros na vida das pessoas, deixa de ser humor.
Queria identificar estes textos por aquilo que, nos dias hoje, é uma mistura de radicalização à direita e muita, muita, muita ignorância que acha que tudo é "comunista"
Trazemos-lhe um guia para aproveitar o melhor do Alentejo litoral. E ainda: um negócio fraudulento com vistos gold que envolveu 10 milhões de euros e uma entrevista ao filósofo José Gil.