Secções
Entrar

Imagens pornográficas falsas de Taylor Swift criadas por IA causam indignação

Lusa 27 de janeiro de 2024 às 11:52

Uma dessas imagens já foi vista mais de 47 milhões de vezes na rede social X, onde permaneceu cerca de 17 horas antes de ser retirada.

Imagens pornográficas falsas de Taylor Swift, criadas através de Inteligência Artificial (IA) generativa, estão a ser amplamente partilhadas nos últimos dias em redes sociais e a gerar indignação entre a classe política norte-americana e fãs da cantora.

REUTERS/Mario Anzuoni

Uma dessas imagens já foi vista mais de 47 milhões de vezes na rede social X, onde de acordo com os 'media' norte-americanos permaneceu durante mais de 17 horas antes de ser excluída, noticiou esta sexta-feira a agência France-Presse (AFP).

Imagens pornográficas falsas [deepfakes, na expressão em inglês] de mulheres famosas, mas também dirigidas a muitas pessoas anónimas, não são novidade.

Mas o desenvolvimento de programas generativos de IA corre o risco de produzir um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.

O facto de tais imagens afetarem desta vez Taylor Swift, segunda entre os artistas mais ouvidos do mundo na plataforma Spotify, poderá, no entanto, ajudar a sensibilizar as autoridades para o problema, perante a indignação dos seus milhões de fãs.

"O único 'ponto positivo' de isto acontecer com Taylor Swift é que ela pesa o suficiente para que seja aprovada uma lei para eliminar isto", sublinhou no X Danisha Carter, influenciadora com várias centenas de milhares de seguidores nas redes sociais.

O X é conhecido por ter regras menos rígidas sobre nudez do que o Instagram ou o Facebook.

A Apple e a Google têm o direito de controlar o conteúdo que circula nas aplicações através das regras que impõem aos seus sistemas operativos móveis, mas toleraram esta situação no X, até agora.

Num comunicado de imprensa, o X garantiu que tem "uma política de tolerância zero" relativamente à publicação não consensual de imagens de nudez.

A plataforma declarou que estava "a remover todas as imagens identificadas" da cantora e "a tomar as medidas necessárias contra as contas que as publicaram".

Representantes da cantora norte-americana ainda não comentaram esta situação.

"O que aconteceu a Taylor Swift não é novo, as mulheres têm sido alvo de imagens falsas sem o seu consentimento durante anos", lembrou a congressista democrata Yvette Clarke, que apoiou uma lei para combater o fenómeno.

"Com os avanços na IA, criar estas imagens é mais fácil e barato", lembrou.

Um estudo realizado em 2019 estimou que 96% dos vídeos 'deepfakes' eram de natureza pornográfica.

De acordo com a revistaWired, 113 mil desses vídeos foram carregados nos principais 'sites' pornográficos durante os primeiros nove meses de 2023.

Artigos Relacionados
Descubra as
Edições do Dia
Publicamos para si, em três periodos distintos do dia, o melhor da atualidade nacional e internacional. Os artigos das Edições do Dia estão ordenados cronologicamente aqui , para que não perca nada do melhor que a SÁBADO prepara para si. Pode também navegar nas edições anteriores, do dia ou da semana.
Boas leituras!
Artigos recomendados
As mais lidas
Exclusivo

Operação Influencer. Os segredos escondidos na pen 19

TextoCarlos Rodrigues Lima
FotosCarlos Rodrigues Lima
Portugal

Assim se fez (e desfez) o tribunal mais poderoso do País

TextoAntónio José Vilela
FotosAntónio José Vilela
Portugal

O estranho caso da escuta, do bruxo Demba e do juiz vingativo

TextoAntónio José Vilela
FotosAntónio José Vilela