Sábado – Pense por si

Mariana Moniz
Mariana Moniz Psicóloga Clínica e Forense
07 de fevereiro de 2025 às 07:00

A Inteligência Artifical e Chatbots: Novos deuses?

Capa da Sábado Edição 5 a 11 de agosto
Leia a revista
Em versão ePaper
Ler agora
Edição de 5 a 11 de agosto

A tecnologia deverá servir para nos ajudar, mas não deve servir para, simplesmente, fazer tudo por nós, sob pena de perdermos, de uma geração para a outra, competências e capacidades que tanto trabalhámos para adquirir.

Nos dias que correm, são poucas as pessoas que utilizam a internet e que nunca recorreram a algum tipo de Chatbot de Inteligência Artificial (IA), como o ChatGPT. Estas ferramentas, que são capazes de responder a qualquer comando, surgiram para nos facilitar a vida. Procuram dar respostas imediatas e exatas a questões ou pedidos específicos, poupando-nos o tempo e trabalho exigidos por uma pesquisa num motor de buscas. Aliás, muitos motores de buscas, como é o caso do Google, já recorrem à IA para facilitar a procura de informação.

É, então, inquestionável que a IA se tornou uma ferramenta de uso diário para muitas pessoas e que o seu potencial de aplicação é quase incalculável. Mas como muitas outras formas de novas tecnologias, a sua utilização não deve ser indiscriminada e, pelo contrário, deve ser perspetivada com alguma reserva.

Em primeiro lugar, o uso deste tipo de programas não ocorre sem os seus custos. Ferramentas como o ChatGPT exigem quantidades exorbitantes de energia, canalizada não só para dar resposta às solicitações dos utilizadores, mas também, simplesmente, para garantir a refrigeração dos servidores. Não podemos, então, deixar de nos debruçar sobre as implicações ambientais dessa utilização: de acordo com um estudo de investigadores da Universidade da Califórnia em colaboração com o Washington Post, um e-mail de 100 palavras gerado pelo ChatGPT exige a utilização, em média, de meio litro de água. Isto significa que o utilizador que escreve um e-mail por semana com este programa desperdiça cerca de 27 litros de água por ano numa tarefa desnecessária e que, no final de contas, poderia ter sido realizada manualmente.

Concomitantemente, o recurso a este tipo de software levanta uma panóplia de outras questões éticas alarmantes, relacionadas com a fiabilidade da informação, segurança, privacidade, transparência e responsabilização. Ora expliquemos.

Softwares como o ChatGPT não são infalíveis e podem basear-se em informação errónea. Os dados que estes programas reúnem são recolhidos da internet, o que inclui páginas web, livros e redes sociais. Isto significa que, na atual ausência de adequada tecnologia para filtrar essa informação, o ChatGPT limita-se a replicar dados sem citar as fontes ou autores originais, muitas vezes pouco fidedignos ou isentos. Pior, há registos de "alucinações", isto é, de situações em que o programa apresenta informação de forma fluente e convincente, mas que é, na verdade, pouco precisa ou falsa. Sem uma análise crítica da informação que estes programas providenciam (ou exigência para que indiquem a origem dela), podemos estar a aceitar cegamente informação falsa ou inapropriada, perpetuando a disseminação de desinformação.

Reconhecemos, também, que muitos estudantes têm recorrido a IA para estudar e, mais nocivamente, fazer trabalhos de casa e até passar em exames. Este tipo de utilização leva, como tal, a uma debilitação significativa do seu progresso educacional, conhecimento e produtividade. Esta ferramenta pode ajudar a terminar um curso, mas não estará lá quando a prática profissional exigir colocar esse conhecimento em ação. A IA não vai ajudar o médico a fazer uma operação, não ajudará um advogado a defender um arguido e não ajudará um psicólogo a dar resposta às idiossincrasias dos seus clientes. Corremos o risco, assim, de entrar na geração com mais acesso a informação, mas, paradoxalmente, com menos conhecimento.

Sem deixarmos de refletir sobre as implicações do uso de IA na saúde mental dos consumidores, pensemos nos programas que procuram, na atualidade, prestar suporte e serviços de saúde mental. Estes chatbots têm, certamente, as suas vantagens, desde a acessibilidade e custos reduzidos à possibilidade de proporcionar um espaço no qual, em teoria, a pessoa pode partilhar informação pessoal embaraçosa ou potencialmente estigmatizante, sem medo de julgamentos humanos. No entanto, argumentamos que faz parte do trabalho de um Psicólogo providenciar esse espaço, estando ele munido das competências necessárias para, de forma empática e, acima de tudo, humana, dar resposta às necessidades psicológicas e emocionais dos indivíduos. Aliás, estudos têm demonstrado que estes chatbots podem não compreender as questões colocadas, recorrer a linguagem ofensiva e até exacerbar os problemas emocionais das pessoas, o que é, no mínimo, preocupante, quando lidamos com populações mais vulneráveis.

Por outro lado, o estabelecimento de uma relação terapêutica, isto é, de uma relação cooperativa, securizante e empática entre Psicólogo e Cliente, é parte integral da intervenção psicológica e vai, aliás, determinar significativamente a eficácia dessa mesma intervenção. Dificilmente poderemos dizer que este tipo de software, por mais articulado e loquaz que seja, vai ser capaz de sintetizar e reproduzir a empatia e comunicação necessárias para o estabelecimento deste tipo de relação. Ademais, e no que concerne aos serviços de saúde mental de IA, não podemos deixar de alertar para o modo como chatbots recolhem e recombinam informação, obtida através das interações com utilizadores, para fazerem previsões sobre a sua identidade e comportamentos. Para além dos problemas associados à confidencialidade e privacidade desses dados, torna-se claro que o software é, com efeito, um reflexo dos seus utilizadores, o que pode levar a enviesamentos ou preconceitos em relação a determinadas populações. Perdemos, então, o argumento de que, por ser uma ferramenta artificial, é livre de julgamentos ou preconceitos. Por fim, os Psicólogos são profissionais que têm de adotar as diretrizes éticas e deontológicas da Ordem profissional que integram e que podem ser responsabilizados por qualquer má conduta que prejudique o cliente. Mas coloquemos a seguinte questão: se as repostas destes programas de IA levam ao dano ou, em casos extremos, à morte de um utilizador, quem pode ser responsabilizado?

A Inteligência Artificial não é infalível, não é omnisciente nem deverá substituir o que tão bem já sabemos fazer. A tecnologia deverá servir para nos ajudar, mas não deve servir para, simplesmente, fazer tudo por nós, sob pena de perdermos, de uma geração para a outra, competências e capacidades que tanto trabalhámos para adquirir.

Mais crónicas do autor
11 de julho de 2025 às 07:33

O Homem forte: retorno à mentalidade ditatorial

Um olhar para o passado proporciona-nos, facilmente, figuras como Mussolini, Stalin, Hitler e Mao Zedong. Todos estes líderes, independentemente da sua inclinação política, viram ser construído um culto de personalidade em sua honra.

27 de junho de 2025 às 07:00

Doença dos filhos, invenção dos pais

A conhecida síndrome de Munchausen consiste no fabrico de doenças físicas e mentais, de modo a obter ganhos secundários, como o reconhecimento e atenção de terceiros ou cuidados médicos.

06 de junho de 2025 às 07:00

Os homens que não querem crescer

O nosso desenvolvimento individual ocorre faseada e progressivamente com o tempo. Não o devemos apressar, sob risco de perdermos experiências formativas e fundamentais para quem somos.

16 de maio de 2025 às 07:52

Sorte ou azar: Jovens e jogos de apostas

Muitos jogos gratuitos e amplamente populares, aliás, incluem agora jogos de apostas como função secundária das suas aplicações, uma espécie de mini-jogos que integram.

18 de abril de 2025 às 10:00

Atração sexual por animais: da fantasia à ação

Como outras perturbações do foro sexual, o interesse sexual por animais surge espontaneamente na pessoa, não escolhendo ela sentir esta atração.

Mostrar mais crónicas

As 10 lições de Zaluzhny (I)

O poder não se mede em tanques ou mísseis: mede-se em espírito. A reflexão, com a assinatura do general Zaluzhny, tem uma conclusão tremenda: se a paz falhar, apenas aqueles que aprendem rápido sobreviverão. Nós, europeus aliados da Ucrânia, temos de nos apressar: só com um novo plano de mobilidade militar conseguiríamos responder em tempo eficaz a um cenário de uma confrontação direta com a Rússia.

Cuidados intensivos

Loucuras de Verão

Até porque os primeiros impulsos enganam. Que o diga o New York Times, obrigado a fazer uma correcção à foto de uma criança subnutrida nos braços da sua mãe. O nome é Mohammed Zakaria al-Mutawaq e, segundo a errata do jornal, nasceu com problemas neurológicos e musculares.