A iniciativa surge na sequência da introdução, há alguns meses, de uma funcionalidade no Grok que permitia aos utilizadores solicitar a criação de montagens hiper-realistas de adultos e crianças nus a partir de fotografias reais, sem o seu consentimento.
Os Estados-Membros e o Parlamento Europeu chegaram a acordo na quarta-feira à noite para proibir na União Europeia (UE) os serviços de inteligência artificial (IA) que possam "despir" pessoas sem o seu consentimento.
DR
A iniciativa surge na sequência da introdução, há alguns meses, de uma funcionalidade no Grok, o assistente de IA da rede social X, que permitia aos utilizadores solicitar a criação de montagens hiper-realistas (ou 'deepfakes') de adultos e crianças nus a partir de fotografias reais, sem o seu consentimento.
O caso gerou indignação em muitos países e levou a UE a abrir uma investigação.
Na terça-feira, a primeira-ministra italiana, Giorgia Meloni, condenou veementemente as fotos falsas de si própria geradas por IA, classificando os 'deepfakes' como uma "ferramenta perigosa".
De acordo com o Parlamento Europeu, a nova proibição visa sistemas que possam criar imagens, vídeos e sons de natureza pornográfica com crianças, ou representações das partes íntimas de uma pessoa identificável, ou imagens dessa pessoa envolvida em atividade sexual, sem o seu consentimento.
As novas regras entrarão em vigor em 02 de dezembro. A partir dessa data, os sistemas de IA deverão estar equipados com medidas de segurança que os impeçam de gerar este tipo de conteúdo.
A medida foi adotada no âmbito de uma revisão da legislação europeia sobre a IA, ou Lei da IA, uma lei pioneira formalmente aprovada há dois anos.
Nessa ocasião, os 27 Estados-Membros e os eurodeputados acordaram ainda, conforme proposto pela Comissão Europeia, adiar a entrada em vigor de novas regras destinadas a regular a atividade dos chamados sistemas de IA de alto risco, ou seja, aqueles que operam em áreas sensíveis como a segurança, a saúde ou os direitos fundamentais.
As regras deveriam entrar em vigor já em agosto, mas a Comissão quis dar mais tempo às empresas para se adaptarem ao novo quadro.
A principal alteração em relação à proposta da Comissão é que os Estados-Membros e os eurodeputados adotaram datas fixas para o adiamento, enquanto Bruxelas tinha proposto um calendário mais flexível.
As novas datas são 02 de dezembro de 2027 para os sistemas "autónomos" de alto risco e 02 de agosto de 2028 para os sistemas integrados noutros programas ou produtos.
O acordo foi alcançado numa altura em que as preocupações com os riscos associados à IA voltaram à discussão na UE nas últimas semanas devido ao Mythos, o novo modelo da 'startup' norte-americana Anthropic.
A Anthopic decidiu não disponibilizar o Mythos ao público em geral, mas apenas a um grupo restrito de empresas norte-americanas, devido à excecional capacidade do modelo de identificar vulnerabilidades críticas de programação, que poderiam desencadear uma crise de cibersegurança.
Para poder adicionar esta notícia aos seus favoritos deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.
Para poder votar newste inquérito deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.