A avaliação dos cinco principais modelos desenvolvidos pela OpenAI, Google, Anthropic, Meta e X pretendeu determinar a forma como estes podem ser programados para difundir desinformação.
Cerca de 88% de todas as respostas geradas pelas cinco principais ferramentas de Inteligência Artificial (IA) continham desinformação sobre saúde, segundo um estudo de várias universidades internacionais.
ChatgptREUTERS/Dado Ruvic/Illustration/File Photo
O estudo "Avaliando as vulnerabilidades de instrução do sistema de grandes modelos de linguagem para conversão maliciosa em 'chatbots' de desinformação em saúde", concluiu que os modelos de IA "podem ser facilmente programados para fornecer informações médicas e de saúde falsas" e 88% eram respostas com desinformação.
A avaliação dos cinco principais modelos desenvolvidos pela OpenAI, Google, Anthropic, Meta e X pretendeu determinar a forma como estes podem ser programados para operar como 'chatbots' de desinformação em saúde.
No total, 88% de todas as respostas geradas pela IA eram falsas, embora apresentassem terminologia científica, um tom formal e referências fabricadas que faziam as informações parecer legítimas.
"A desinformação incluía alegações sobre vacinas que causam autismo, dietas que curam cancro, HIV a ser transmitido pelo ar e rede 5G a causar infertilidade", são alguns dos casos de desinformação relatados.
O estudo revelou que dos modelos de IA avaliados, quatro geraram desinformação em 100% das suas respostas, enquanto um quinto gerou desinformação em 40% dos resultados.
"A inteligência artificial agora está profundamente enraizada na forma como as informações de saúde são acedidas e entregues (...) milhões de pessoas estão a recorrer a ferramentas de IA para obter orientação sobre questões relacionadas com a saúde", lê-se no documento.
Além disso, o estudo alerta para a facilidade destes sistemas tecnológicos serem manipulados para produzir conselhos falsos ou enganadores, criando "um novo caminho poderoso para a desinformação que é mais difícil de detetar, mais difícil de regular e mais persuasiva".
Recentemente, em declarações à agência Lusa, o bastonário da Ordem dos Médicos, Carlos Cortes, afirmou que a IA não pode substituir um médico, alertando que ferramentas como o ChatGPT não estão habilitadas a fazer diagnósticos médicos.
Carlos Cortes referiu que as ferramentas de IA não estão habilitadas a fazer diagnósticos, pois faltam "evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica que permite aos médicos compreender e confiar nas decisões sugeridas".
O estudo "Avaliando as vulnerabilidades de instrução do sistema de grandes modelos de linguagem para conversão maliciosa em 'chatbots' de desinformação em saúde" foi desenvolvido em colaboração com a University of South Australia, Flinders University, Harvard Medical School, University College London e Warsaw University of Technology.
Chatbots geram desinformação sobre saúde em 88% das respostas
Para poder adicionar esta notícia aos seus favoritos deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.
Para poder votar newste inquérito deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.
O regresso de Ventura ao modo agressivo não é um episódio. É pensado e planeado e é o trilho de sobrevivência e eventual crescimento numa travessia que pode ser mais longa do que o antecipado. E que o desejado. Por isso, vai invocar muitos salazares até lá.
O espaço lusófono não se pode resignar a ver uma das suas democracias ser corroída perante a total desatenção da opinião pública e inação da classe política.
É muito evidente que hoje, em 2025, há mais terraplanistas, sim, pessoas que acreditam que a Terra é plana e não redonda, do que em 1925, por exemplo, ou bem lá para trás. O que os terraplanistas estão a fazer é basicamente dizer: eu não concordo com o facto de a terra ser redonda.