Sábado – Pense por si

Contos Clássicos Portugueses


agora disponíveis para ler e ouvirContos Clássicos PortuguesesAceder aqui

Sistemas de IA a promoverem casinos ilegais. "Legislação não foi cumprida"

As mais lidas

Alguns chartbots promovem casinos ilegais e sugerem formas e menores fugirem às restrições de idade. Á SÁBADO, o professor José Moreira garante que estes casos são "sistémicos" e que em episódios mais graves os operadores poderão ter de pagar uma coima.

Os principais chartbots de Inteligência Artificial estão a promover casinos ilegais e a sugerir formas dos menores fugirem às restrições de idade, revelou uma investigação. Segundo o professor de Direito da Universidade Portucalense, José Moreira, tratam-se de "riscos sistemáticos" mas que é normal acontecerem quando não há "qualidade nos dados de treino". "Se não estamos a dar qualidade à entrada dos dados de treino é normal que a saída não seja boa", explica à SÁBADO.

Casinos
Casinos

No passado, já assistimos também a outro tipo de cenários que deveriam ter sido tratados de forma mais cautelosa pelos sistemas de IA, mas que tal não aconteceu, tendo até se verificado tragédias. "Nos Estados Unidos um jovem suicidou-se depois de ter conversado com o ChatGPT que o ensinou a criar uma forca e, muito mais recentemente, uma cidadã sul-coreana utilizou o ChatGPT para envenenar duas pessoas e provocar a sua morte", recorda. "Não são situações pontuais. É uma situação para o qual os sistemas de IA deviam estar treinados para não darem este tipo de respostas", lamenta.

Para José Moreira, os "operadores" de IA como "OpenAI, Microsoft, Google" é que "deviam ser responsabilizados" por este tipo de situações. Garante que "a legislação não foi cumprida", isto porque não deveria ter sido dada autorização a menores para acederem a casinos, muito menos ilegais.

Perante este tipo de casos, os sistemas têm a obrigatoriedade de "corrigir o output gerado", algo que já poderá ter sido feito. Já depois desta notícia, o professor contou que fez várias questões à IA que envolviam casinos ilegais, mas que "foi difícil obter uma informação que o ajudasse enquanto utilizador". "Admito que já possam ter adotado medidas", refere.

Contudo, em casos mais preocupantes, os operadores arriscam o pagamento de coimas. "No Regulamento dos Serviços Digitais existe a obrigação das plataformas adotarem medidas adequadas para a privacidade dos menores e quando há riscos sistémicos as empresas têm de adotar medidas como a adaptação do sistema ou mecanismos de controlo como o da idade e da parentalidade. Em caso de incumprimento arriscam uma coima de 6% do volume anual de negócios", garante.

Este regulamento já está em vigor, no entanto, há um outro que ainda não está 100% em funcionalidade. É o caso do Regulamento sobre Inteligência Artificial. "Na eventualidade de haver um homicídio, que é uma situação mais gravosa, a aplicação da coima é mais relevante", destaca. 

No entanto, para isso são necessárias evidências que comprovem que, de facto, se registaram determinados episódios. "Quando se realiza uma investigação podemos tirar prints, mas a autoridade de investigação tem vantagens porque basta solicitar os revistos informáticos a estas entidades para garantir a fidedignidade da prova produzida." 

Como evitar estes cenários no futuro?

O professor deixa ainda algumas dicas que poderão ajudar a evitar este tipo de episódios no futuro. No caso das casas de apostas diz que o Governo devia proibir os bancos de operarem em casas de apostas ilícitas ou que os influencers não deviam puder promover casinos ilegais. Já no caso dos operadores de sistemas de IA, defende que o sistema devia conseguir parar a conversa e criar um mecanismo que permita continuar a falar com o ChatGPT, criar mecanismos de identificação de idade, devia haver sinalização interna caso o utilizador solicite informações sobre terrorismo e que não deviam ser permitidas determinadas conversas de menores com a IA.

Artigos Relacionados