Sábado – Pense por si

Estudo conclui que assistentes de IA deturpam notícias em quase metade das respostas

Conduzido pelo European Broadcasting Union e pela BBC, com base em 3.000 análises, o trabalho indica que em 45% das respostas há falhas significativas.

até agora realizado sobre a veracidade e integridade do fluxo noticioso consultado a partir de assistentes de inteligência artificial apresenta uma conclusão preocupante: quase metade das respostas deturpa as notícias.

ChatGPT, Microsoft Copilot, Google Gemini e Perplexity foram alguns dos modelos analisados
ChatGPT, Microsoft Copilot, Google Gemini e Perplexity foram alguns dos modelos analisados Matthias Balk/picture-alliance/dpa/AP Images

Publicado na semana passada e co-produzido pela European Broadcasting Union (EBU) e pela BBC, o News Integrity in AI Assistants – ou a Integridade Noticiosa em Assistentes de Inteligência Artificial (IA) –, indica que 45% das respostas fornecidas por este tecnologia a pesquisas por notícias apresentam pelo menos um problema significativo. A investigação avaliou 3.000 respostas geradas por vários assistentes dominantes no mercado, e cobriu múltiplos territórios e 14 línguas, encontrando um padrão consistente de distorção e erros, independentemente do idioma ou do contexto geográfico.

O trabalho analítico quantifica várias categorias de falha, estando a mais frequente relacionada com a origem e creditação da informação: 31% das respostas exibiram problemas sérios de sourcing, isto é, ausência de fontes, referências incorretas ou atribuições erradas.

Além disso, 20% das respostas continham informação desatualizada ou factualmente incorreta, por exemplo, alterações legislativas fictícias, datas erradas ou identificação incorreta de figuras públicas, e 33% envolveram erros relevantes de origem e contexto em diferentes graus de gravidade.

A amostra incluiu as plataformas mais utilizadas atualmente — entre elas ChatGPT, Microsoft Copilot, Google Gemini e Perplexity — e a análise comparativa detetou variações entre fornecedores quanto ao tipo e à frequência das falhas. Essas diferenças, contudo, não anulam o padrão geral observado pelo estudo, que concluiu que nenhum dos assistentes avaliados apresentou fiabilidade irrepreensível.

Além de quantificar os erros, o relatório discute as implicações para o ecossistema informativo. Os autores alertam que, à medida que os assistentes de IA passam a ser utilizados por um número crescente de consumidores para procurar notícias – com especial ênfase no público mais jovem – a propagação de respostas erradas ou mal fundamentadas pode comprometer a confiança nas fontes jornalísticas e afetar a literacia mediática.

De acordo com dados citados pela Reuters, a partir do estudo da EBU/BBC, cerca de 72% das respostas fornecidas pelo Gemini, o assistente de inteligência artificial da Google, apresentaram problemas significativos de origem das fontes, uma taxa muito superior aos menos de 25% registados pelos restantes assistentes analisados.

Entre os exemplos referidos, constam o Gemini a afirmar incorretamente que existiram alterações a uma lei sobre cigarros eletrónicos descartáveis, e o ChatGPT a mencionar o Papa Francisco como ainda vivo vários meses após a sua morte. O estudo envolveu 22 organizações públicas de media de 18 países, entre os quais França, Alemanha, Espanha, Ucrânia, Reino Unido e Estados Unidos, e alerta que a crescente utilização de assistentes de IA em substituição dos motores de busca tradicionais pode minar a confiança do público nas notícias.

Jean Philip De Tender, diretor de Media da EBU, afirmou em comunicado que “quando as pessoas deixam de saber no que confiar, acabam por não confiar em nada, e isso pode desencorajar a participação democrática”. Segundo o , do Instituto Reuters, 7% dos consumidores de notícias online já recorrem a assistentes de IA para se informarem sobre a atualidade. O número sobe para os 15% quando se refere a menores de 25 anos.

A EBU e a BBC defendem que a correção passa por ações concertadas, apontam aos fornecedores de tecnologia a responsabilidade por melhorar a rastreabilidade das fontes e fornecer metadados claros. Acrescentam também que as plataformas devem permitir auditorias independentes e os órgãos de comunicação social têm um papel em testar e documentar falhas para informar reguladores e utilizadores. O relatório sugere igualmente a criação de padrões comuns para avaliar a integridade informativa de respostas de IA, de modo a que editores e utilizadores possam comparar desempenho e exigir melhorias.

Em reação aos resultados, a Gemini, assistente de IA da Google, declarou no site que aceita feedback para continuar a melhorar a plataforma e a torná-la mais útil aos utilizadores. A OpenAI e a Microsoft já afirmaram que as alucinações – nome técnico usado quando um modelo de IA gera informação incorreta ou enganadora, muitas vezes devido a fatores como dados insuficientes – são um problema que procuram resolver. Já a Perplexity afirma no seu site que um dos seus modelos de "Pesquisa Profunda" tem 93,9% de precisão em termos de factualidade.

Artigos Relacionados