Sábado – Pense por si

Campanha de desinformação russa: propaganda com IA está a colocar em questão a “vulnerabilidade democrata”

Centenas de perfis falsos partilham vídeos falsos de jovens ucranianos a queixarem-se da “mobilização forçada" de forma a enfraquecer o apoio ao lado ucraniano

“Ajudem-me, não quero morrer, só tenho 23 anos.” É o que diz um soldado ucraniano a ser mobilizado à força para as linhas da frente da guerra que já dura há três anos. No entanto, não é mesmo um soldado, é um deepfake, um vídeo totalmente falso criado por Inteligência Artificial (IA) pelo Kremlin. 

Campanha de desinformação russa: Criação de propaganda com IA está a colocar em questão a “vulnerabilidade democrata”
Campanha de desinformação russa: Criação de propaganda com IA está a colocar em questão a “vulnerabilidade democrata”

Este, assim como os vídeos feitos com recurso à IA, quer sejam fabricações totais ou parciais, de áudio ou imagem, fazem parte de uma estratégia russa maior, uma campanha de desinformação para completar a guerra física e cibernética que está em curso desde 2022.

As redes sociais estão cheias de perfis falsos que partilham vídeos como se fossem jovens ucranianos a queixarem-se da “mobilização forçada” e das condições em que combatem.

Questionado sobre se se pode presumir que estes ataques estão a ser criados diretamente pelo Kremlin, Diogo Alexandre Carapinha, subcoordenador do VisionWare Threat Intelligence Center, explica à SÁBADO que “é complicado porque nunca se consegue dizer a 100% que este tipo de coisas é criada por aquela pessoa, entidade ou país, mas há indícios de que realmente, se não foi pelo Kremlin, foi com uma forte componente deles”.

Estratégia das operações de desinformação russas

Quanto à campanha em questão, Diogo Alexandre Carapinha refere que “tecnicamente tem falhas, e é normal”, nomeadamente, a marca de água do Sora, um programa de inteligência artificial de criação de vídeos, ou o facto da idade para cumprir o serviço militar na Ucrânia ter baixado para os 25, mas nos vídeos os supostos soldados dizem que têm 23 anos, demonstrando uma “realidade que não existe”. Ainda, de acordo com o analista, que cita o Centro Ucraniano para o Controlo de Desinformação, ou CCD (sigla em inglês), uma das caras mostradas num dos vídeos mais partilhados é de um cidadão russo.

Para entender o impacto deste tipo de campanhas é importante recorrer a estatísticas. Desde o início de 2025, o já registou 191 operações russas envolvendo conteúdo gerado pela IA com um alcance de pelo menos 84,5 milhões de visualizações. Segundo o especialista, “o objetivo é manipular os sentimentos das pessoas”.

Estes vídeos que têm a capacidade de “fabricar emoção com uma precisão cirúrgica muito avançada” têm como objetivo atingir três públicos alvos. Em primeiro lugar a população ucraniana, “minar a confiança no Estado e transparência e o nível de autoestima”. Depois a diáspora ucraniana para “criar perceções erráticas, de injustiça, pânico e revolta” e por fim, “o público internacional para fragilizar o apoio político à Ucrânia”.

Ao criar vídeos de jovens de vinte e poucos anos a serem obrigados a ir para as linhas da frente, enquanto a idade mínima é 25 anos, pretende-se criar a perceção de que o governo “está a fazer algo de mal”.

Para que o conteúdo chegue ao máximo de pessoas possível, as entidades russas podem recorrer à “falsificação de sites onde a landing page é igual e é replicada com informação distorcida” ou também podem optar por “contratar ou criar influencers para divulgar a informação”, há ainda uma manipulação “da otimização do SEO, ou dos motores de busca”. Por fim, podem aproveitar “a anarquia que se usa em plataformas como o Telegram, o X e o TikTok”.

Campanhas de desinformação como agente desafiante da democracia

No entanto, o especialista explica que esta campanha faz parte “de uma campanha específica de uma estratégia muito, muito longa e extensa com muitas partes” que serve para “descredibilizar e criar dúvida, que junta o ciberespaço e a forma como se controlam as emoções”.

Com estas operações entra-se “num outro nível de estratégia face ao contexto [da guerra] em questão". "A Ucrânia está enfraquecida, a precisar de uma resposta e não está a aguentar o esforço da guerra física plena" e a guerra eletrónica "desgasta” ainda mais os esforços ucranianos, refere o especialista. “Entramos numa nova etapa da guerra híbrida, ao nível da guerra da informação” com uma nova faceta “a entrada da IA, a capacidade de produzir propaganda visual”.

Os Estados ganharam a capacidade de criar “operações mais rápidas, baratas e difíceis de detetar em tempo útil” colocando em questão a “vulnerabilidade democrata”. Passa a existir também um outro desafio relativo à “velocidade de conteúdo falso” que é mais rápido do que “a velocidade de verificação que demora horas ou dias” e tem alcances mais limitados.

“A nível do contexto do uso da IA pode assinalar-se que neste momento é uma arma de desgaste político” onde a mensagem transmitida não pretende esclarecer se o conteúdo é verdadeiro ou falso, pretende “criar dúvida, confusão e a consequência é o cansaço cognitivo e o desgaste político”. “A linha entre a guerra psicológica e a influência política está cada vez mais a desaparecer”, enfatiza.

Na sua opinião a resposta para combater o impacto deste tipo de propaganda gerado pelo uso da IA “não pode ser exclusivamente tecnológica, a resposta é mais política, as plataformas de IA e redes sociais têm um grande papel mas o que está em causa é a governação da informação”.

É necessário haver uma “cooperação internacional para combater” a expansão deste tipo de utilização da IA sem comprometer a inovação e que se “responsabilize o uso da IA não só em ambientes informacionais mas para salvaguardar as democracias”.

Artigos Relacionados