Secções
Entrar

Como a IA reforça as desigualdades de género e rotula raparigas como “frágeis”

Gabriela Ângelo 08 de março de 2026 às 08:00

De forma a educar as ferramentas de IA a serem mais igualitárias é necessário treiná-las, chamando a atenção a respostas e comportamentos preconceituosos e promover literacia crítica entre os mais jovens.

Talvez já tenha utilizado o ChatGPT para ajudar a criar uma lista de compras, para conselhos amorosos ou para resumir um ensaio académico. Mas, apesar de parecerem inofensivos, estes chatbots de IA não são ferramentas neutras, eles aprendem a partir de dados recolhidos junto dos utilizadores, e absorvem os mesmos estereótipos e preconceitos destes, até no que toca a desigualdade de género. 

OpenAI lança ferramentas de controlo parental no ChatGPT para famílias Matthias Balk/picture-alliance/dpa/AP Images

Recentemente, um da empresa global de marketing, LLYC, intitulado “a miragem da IA- um reflexo incómodo com alto impacto nos jovens”, explora a forma como a IA trata de forma diferente os seus utilizadores femininos e masculinos, perpetuando o tipo de desigualdades que são refletidos na sociedade atual. 

A IA como mecanismo limitante e reforço de desigualdades

À SÁBADO, Marlene Gaspar, a diretora-geral da LLYC em Portugal explica que “os algoritmos são um espelho convexo, que amplifica os preconceitos históricos, em vez de projetar um futuro diferente”. “A máquina trata os géneros de forma distinta”, diz, referindo que ao conversar com uma utilizadores feminina, “é mais condescendente, apresenta uma visão paternalista”. Já com rapazes apresenta uma linguagem mais “imperativa, tem mais um papel de coach, é focado em instruções”. Além de que “rotula as raparigas como frágeis quatro vezes mais do que o número registado pelos rapazes”, que são vistos como “resilientes”. “Os padrões que ainda temos [na nossa sociedade] são amplificados”, frisa. 

Questionada sobre se vê alguma correlação entre a implementação destes mecanismos de IA e um retrocesso na mentalidade sobre o papel da mulher na sociedade, a especialista afirma que “infelizmente, sim”. “Olhando para os dados, as respostas dizem que se não questionarmos [as respostas dos chatbots], tornamos os preconceitos em norma”, afirma, acrescentando que os mecanismos tendem a reforçar estruturas de uma família tradicional. “A IA continua a pôr a mãe no papel de cuidador, mais afetivo, e o pai numa componente mais logística”, explica. 

Aos mais jovens que procuram ajuda na escolha de áreas profissionais, as ferramentas de IA atribuem vocações “de forma assimétrica”. “Redireciona as mulheres três vezes mais para as áreas de ciências sociais e saúde, aos homens redireciona para STEM”, ou seja, para áreas de ciência, tecnologia, engenharia e matemática, que por si só já têm uma presença forte masculina. Mas também atribui funções “mais juniores” ao género feminino, tentando afastá-las de posições de liderança. 

Treinar a IA e literacia crítica com o digital

De forma a educar os mecanismos de IA a ser mais igualitários, é necessário treiná-los. Marlene Gaspar nota que existem versões mais recentes que “conseguem reduzir o preconceito”, mas para isso se generalizar, é necessário adotar “hard coding deliberation”. Este processo visa “reconhecer o sexismo codificado” e impõe diretrizes éticas nestes sistemas. Compete também aos utilizadores “corrigir” e “treinar o viés, o bias”, chamando à atenção o próprio chatbot para comportamentos preconceituosos. 

A nível nacional e individual, a especialista nota a importância de “criar uma cultura de literacia crítica com o digital, que começa em casa”, reforça. “As escolas têm o papel fundamental de acompanhar o avanço tecnológico e promover a literacia, duvidar das respostas da máquina, em vez do consumo pacífico”, explica. 

É importante também ajudar na autoestima dos jovens, uma vez que “o uso intensivo [dos mecanismos de IA] sem regras ou medidas pode agravar sintomas de solidão e isolamento social profundo nos jovens” que acabam por acreditar mais na “máquina” do que nos amigos. Para eliminar alguns viés dentro da própria área tecnológica da IA, Marlene defende o estímulo da presença feminina em STEM para “eliminar alguns pontos cegos”. Apenas 22 por cento dos profissionais na área das IA são mulheres, nota, garantindo que “desafiar é o primeiro passo para que o futuro não repita algum passo desigual”. 

Siga-nos no .  

Artigos Relacionados
Artigos recomendados
As mais lidas