Sábado – Pense por si

SIGA-NOS NO WHATSAPP
Não perca as grandes histórias da SÁBADO

Pensilvânia (EUA) processa empresa de IA por 'chatbots' se apresentarem como médicos

O estado pede ao tribunal que obrigue a Character Technologies Inc., responsável pela plataforma Character.AI, a impedir os seus 'chatbots' de "praticarem medicina e cirurgia ilegalmente".

O estado norte-americano da Pensilvânia (nordeste) processou uma empresa que cria 'chatbots' de inteligência artificial, (IA) alegando que estes enganam os utilizadores apresentando-se ilegalmente como médicos.

Pensilvânia (EUA) processa empresa de IA por 'chatbots' se apresentarem como médicos
Pensilvânia (EUA) processa empresa de IA por 'chatbots' se apresentarem como médicos DR

No processo, aberto na sexta-feira, o estado pede ao tribunal que obrigue a Character Technologies Inc., responsável pela plataforma Character.AI, a impedir os seus 'chatbots' de "praticarem medicina e cirurgia ilegalmente".

Um investigador da agência estadual que licencia profissionais criou uma conta no Character.AI, pesquisou a palavra "psiquiatria" e encontrou um grande número de personagens, incluindo uma descrita como "médico psiquiatra", segundo o processo.

Esta personagem apresentou-se como capaz de avaliar o investigador "como um médico" licenciado na Pensilvânia, segundo o processo.

O processo levanta a questão de saber se a IA pode ser acusada de exercer medicina, em vez de apenas reproduzir informação da internet, e influenciar decisões judiciais futuras sobre se os 'chatbots' são abrangidos por uma lei federal que geralmente isenta as empresas tecnológicas da responsabilidade pelo conteúdo que utilizadores publicam nas suas plataformas.

Numa altura de aumento de processos por homicídio culposo ou negligência contra empresas de IA, o governador estadual Josh Shapiro classificou a medida como uma "ação inédita de fiscalização", para que os seus cidadãos saibam "com quem --- ou com o quê --- estão a interagir online, especialmente quando se trata da sua saúde".

"Não permitiremos que as empresas implementem ferramentas de IA que induzam as pessoas a acreditar que estão a receber aconselhamento de um profissional médico licenciado", disse Shapiro, em comunicado.

A pressão dos estados tem vindo a aumentar sobre as empresas tecnológicas para que controlem mensagens potencialmente perigosas dos seus 'chatbots', especialmente para as crianças.

Um processo de proteção do consumidor foi já interposto contra a Character Technologies pelo Kentucky (centro-leste), enquanto vários procuradores-gerais estaduais têm alertado que os 'chatbots' podem estar a violar uma série de leis estaduais.

Em dezembro, procuradores-gerais de 39 estados e de Washington, D.C., escreveram à Character Technologies e a outras 12 empresas de IA e tecnologia --- incluindo a Anthropic, Meta, Apple, Microsoft, OpenAI, Google e xAI --- para as alertar para um aumento de mensagens enganosas e manipuladoras de 'chatbots' que violam leis estaduais.

Na carta, afirmaram que "é ilegal prestar aconselhamento sobre saúde mental sem licença, e [que] fazê-lo pode diminuir a confiança na profissão de saúde mental e impedir os pacientes de procurarem ajuda de profissionais qualificados".

Em resposta ao processo na Pensilvânia, a Character.AI afirmou numa declaração enviada à AP que publica avisos para informar os utilizadores de que as personagens da sua plataforma não são pessoas reais e que tudo o que dizem "deve ser tratado como ficção".

Estes avisos também afirmam que os utilizadores não devem confiar nos ´chatbots´ para obter aconselhamento profissional, acrescenta a empresa.

A Character Technologies enfrentou vários processos judiciais relacionados com a segurança infantil.

Em janeiro, a Google e a Character concordaram em fazer um acordo extrajudicial num processo movido por uma mãe do estado da Florida (sul), que alegou que um 'chatbot' induziu o seu filho adolescente ao suicídio.

No final do ano passado, no meio de crescentes preocupações sobre os efeitos das conversas com IA nas crianças, a Character.AI proibiu os menores de utilizar os seus 'chatbots'.

Artigos Relacionados