Sábado – Pense por si

Pedro Ledo
Pedro Ledo
04 de outubro de 2025 às 10:00

A Inteligência artificial e a segurança nacional

A inteligência artificial já é utilizada para detetar padrões de comportamento anómalos nas redes governamentais e militares, permitindo identificar ciberataques antes que causem danos significativos.

A inteligência artificial deixou de ser um tema reservado a laboratórios de investigação ou a grandes empresas tecnológicas e tornou-se um recurso operacional estratégico nas estruturas de segurança nacional. O seu impacto não se limita ao reforço das capacidades técnicas, mas estende-se à redefinição de doutrinas e procedimentos operacionais, influenciando tanto a prevenção como a resposta a ameaças. Em Portugal, a incorporação desta tecnologia ocorre num contexto em que o país participa ativamente em mecanismos de segurança partilhada, como a NATO e a União Europeia, e em que a proteção de infraestruturas críticas, a segurança das fronteiras e a ciberdefesa são pilares essenciais da soberania.

No domínio da cibersegurança, a inteligência artificial já é utilizada para detetar padrões de comportamento anómalos nas redes governamentais e militares, permitindo identificar ciberataques antes que causem danos significativos. Algoritmos de deteção de intrusão analisam milhões de pacotes de dados por segundo, comparando-os com modelos históricos e padrões de ataque conhecidos, mas também reconhecendo ameaças emergentes através de técnicas de aprendizagem automática não supervisionada. Em operações reais, quando uma anomalia é detetada, o sistema consegue isolar automaticamente o segmento de rede afetado e alertar equipas de ciberdefesa, reduzindo drasticamente o tempo de reação. Esta abordagem foi decisiva, por exemplo, em exercícios de ciberdefesa conjuntos realizados com países aliados, onde Portugal testou a sua capacidade de resposta integrada, simulando ataques complexos a sistemas governamentais e infraestruturas energéticas.

Na área da inteligência estratégica, a IA é utilizada para processar dados provenientes de fontes abertas (OSINT), como redes sociais, blogs e fóruns, mas também de fontes técnicas como SIGINT (inteligência de sinais) e COMINT (inteligência de comunicações). Estes dados são cruzados e analisados com base em algoritmos de processamento de linguagem natural, capazes de compreender contextos linguísticos e culturais, detetar discursos radicais emergentes ou prever movimentos de grupos extremistas. Num caso concreto, sistemas com IA foram utilizados para monitorizar comunicações abertas em diversas línguas no contexto de grandes eventos internacionais, permitindo identificar indícios de preparação de ações de distúrbio antes que estas ocorressem.

A vigilância e o controlo fronteiriço são áreas onde o impacto da IA é particularmente visível. Sistemas integrados de câmaras térmicas e de alta resolução, acoplados a drones e a sensores marítimos, são geridos por plataformas que aplicam visão computacional para identificar embarcações ou veículos suspeitos. A análise automática de matrículas e perfis faciais em tempo real permite cruzar informação com bases de dados criminais nacionais e internacionais. A Autoridade Marítima Nacional, em coordenação com a Frontex, já recorre a soluções com IA para patrulhamento automatizado em determinadas áreas da costa portuguesa, onde embarcações não identificadas são automaticamente sinalizadas e seguidas, reduzindo o tempo entre a deteção e a interceção.

No que diz respeito à proteção de infraestruturas críticas, como centrais elétricas, refinarias, barragens e redes hospitalares, a IA permite implementar sistemas de monitorização preditiva. Estes sistemas recolhem continuamente dados de sensores, analisam parâmetros de funcionamento e identificam variações que possam indicar riscos de falha técnica, sabotagem ou ciberataque. Por exemplo, em redes elétricas, a IA consegue prever sobrecargas ou falhas de componentes com horas ou dias de antecedência, permitindo que as equipas técnicas intervenham antes que ocorra uma interrupção de serviço. Em hospitais, onde a disponibilidade de sistemas informáticos é vital, a IA tem sido utilizada para detetar intrusões e comportamentos anómalos em redes internas, evitando ataques como os registados em outros países, que chegaram a paralisar serviços de urgência.

Apesar destas vantagens, o recurso à inteligência artificial na segurança nacional acarreta desafios que não podem ser ignorados. A dependência de soluções desenvolvidas fora da União Europeia representa um risco de soberania tecnológica e de segurança, pois abre a possibilidade de vulnerabilidades ocultas ou de limitações impostas por terceiros. Por esta razão, a Comissão Europeia tem incentivado o investimento em desenvolvimento interno através de programas como o Horizon Europe e a Agência Europeia de Defesa, criando condições para que países como Portugal participem na conceção de tecnologias críticas.

A segurança da própria IA também é um fator essencial. Sistemas inteligentes podem ser alvo de ataques adversariais, nos quais pequenas alterações nos dados de entrada provocam decisões incorretas, com potencial impacto em missões críticas. A implementação de auditorias regulares, mecanismos redundantes e supervisão humana constante são medidas essenciais para mitigar este risco. Em paralelo, a questão ética surge como elemento central: a utilização de IA para vigilância levanta preocupações legítimas de privacidade, devendo ser sempre proporcional e justificada, com supervisão judicial quando necessário.

O enquadramento legislativo europeu, especialmente com a futura Lei da Inteligência Artificial, impõe obrigações claras para sistemas considerados de alto risco, como aqueles usados na segurança nacional. Estes terão de garantir explicabilidade, robustez técnica e conformidade com os direitos fundamentais. Em Portugal, a articulação desta legislação com a Lei de Segurança Interna e a Lei da Cibersegurança será determinante para criar um quadro normativo coerente e eficaz.

O futuro da inteligência artificial na segurança nacional portuguesa aponta para um ecossistema híbrido, em que capacidades centralizadas em centros de comando se combinam com processamento de dados no terreno, através de equipamentos “edge” capazes de operar autonomamente em ambientes com ligações limitadas. A integração com redes 5G seguras permitirá tempos de resposta quase instantâneos, potenciando operações conjuntas entre forças armadas, forças de segurança e serviços de proteção civil.

Portugal tem uma oportunidade estratégica para não apenas consumir tecnologia, mas participar ativamente no seu desenvolvimento, reforçando a autonomia nacional e a capacidade de resposta. Para isso, será necessário investir de forma consistente em investigação, parcerias internacionais, formação especializada e infraestruturas seguras, criando uma rede de defesa inteligente que responda às ameaças contemporâneas com rapidez, precisão e responsabilidade.

Na Europa, a inteligência artificial aplicada à segurança nacional está a ser desenvolvida de forma coordenada entre instituições da União Europeia, governos nacionais e alianças internacionais como a NATO. O EU Innovation Hub for Internal Security, ligado à Europol, conduz projetos de IA voltados para análise de grandes volumes de dados criminais, deteção automática de conteúdos terroristas online e previsão de padrões de criminalidade transfronteiriça. No domínio da ciberdefesa, a Agência da União Europeia para a Cibersegurança (ENISA) promove a integração de sistemas de machine learning em plataformas de deteção e mitigação de ataques a redes críticas, enquanto a EDA (European Defence Agency) financia programas que testam IA em cenários de defesa coletiva, incluindo vigilância marítima, operações de drones e sistemas de comando e controlo assistidos por algoritmos. Países como a França, a Alemanha e os Países Baixos já têm centros especializados em IA para segurança e defesa, investindo simultaneamente em tecnologias de “IA de confiança” para garantir explicabilidade e conformidade com a legislação europeia.

No Brasil, a incorporação de IA na segurança nacional ainda se encontra em fase de expansão, mas já há exemplos concretos. O Centro Integrado de Operações de Segurança Pública (CIOp) em alguns estados utiliza IA para monitorizar câmaras de vigilância urbanas com reconhecimento facial e leitura automática de matrículas. O Exército Brasileiro tem explorado IA para análise de imagens de satélite e drones na vigilância da Amazónia, focando-se tanto no combate ao desmatamento ilegal como na deteção de atividades ligadas ao tráfico de drogas e ao garimpo. No campo da cibersegurança, a Defesa Cibernética do Exército (ComDCiber) trabalha com algoritmos de deteção de intrusão e análise comportamental para proteger redes governamentais, especialmente durante eventos de grande dimensão como eleições e cimeiras internacionais. Contudo, os desafios no Brasil passam por garantir a interoperabilidade entre forças e órgãos distintos, bem como superar limitações orçamentais e de formação especializada.

Nos Estados Unidos, a integração da inteligência artificial na segurança nacional está num patamar mais avançado e diversificado. O Department of Homeland Security (DHS) e o Department of Defense (DoD) investem em IA para controlo fronteiriço, detetando movimentos suspeitos através de sensores, câmaras e drones equipados com visão computacional. A Defense Advanced Research Projects Agency (DARPA) conduz programas que vão desde a ciberdefesa baseada em aprendizagem autónoma até sistemas de IA capazes de planear operações militares complexas. A Agência de Segurança Nacional (NSA) utiliza IA para análise massiva de dados de comunicações, procurando padrões indicativos de espionagem ou ciberataques. No setor da aviação e vigilância aérea, a US Customs and Border Protection (CBP) emprega algoritmos para analisar tráfego aéreo e marítimo em tempo real. Paralelamente, os EUA têm fortes preocupações com ataques adversariais à IA, investindo em investigação para criar sistemas resistentes a manipulações de dados e em programas de validação ética, numa tentativa de responder a críticas sobre privacidade e supervisão.

A deteção de “intenções criminosas” através de câmaras com inteligência artificial é um campo que mistura avanços reais em visão computacional com limites claros impostos pela ciência, pela ética e pelo direito. A expressão é apelativa, mas convém compreender que, tecnicamente, o que estas câmaras fazem não é “ler a mente” ou prever o futuro, mas sim identificar padrões comportamentais, contextuais e ambientais que, estatisticamente, se correlacionam com comportamentos de risco.

O funcionamento começa com a captura de vídeo em tempo real, processado por modelos de visão computacional que aplicam algoritmos de deteção de objetos (como YOLO, Faster R-CNN ou EfficientDet) para identificar pessoas, veículos, armas ou outros elementos relevantes. A seguir, módulos de análise de postura e movimento (pose estimation) monitorizam a posição do corpo, a direção do olhar, a velocidade de deslocamento e interações com outros indivíduos. Um sistema pode, por exemplo, assinalar um indivíduo que permanece junto a uma montra durante vários minutos em horário noturno, que faz movimentos repetitivos na zona do bolso (potencial busca de objeto) ou que corre em direção a outra pessoa de forma súbita.

Para além da postura, estes sistemas avaliam também o contexto ambiental: densidade de pessoas, condições de iluminação, localização geográfica e hora do dia. Algoritmos de machine learning supervisionado e aprendizagem profunda são treinados com grandes bases de dados de incidentes reais para reconhecer combinações de fatores que precederam comportamentos ilícitos. O objetivo não é “condenar por antecipação”, mas criar um alerta preventivo que permita a um operador humano observar mais de perto ou enviar uma patrulha.

A deteção de “intenções” vai ainda mais longe em ambientes controlados, como aeroportos e fronteiras, através de análise de microexpressões faciais. Este campo, inspirado nos estudos de Paul Ekman, tenta identificar variações muito rápidas na expressão que podem indicar stress, nervosismo ou hostilidade. Combinado com dados de calor corporal obtidos por câmaras térmicas, é possível gerar indicadores de tensão que, em contextos específicos, justificam uma triagem adicional. Contudo, a fiabilidade desta abordagem é debatida — estudos académicos apontam que a precisão pode ser afetada por fatores como cansaço, diferenças culturais e condições médicas, levando a falsos positivos.

Do ponto de vista científico, a principal limitação está na variabilidade humana. Nem todos os comportamentos suspeitos resultam em crime, e nem todos os crimes seguem padrões observáveis. Além disso, os algoritmos só são tão bons quanto os dados com que foram treinados. Se as bases de dados tiverem enviesamentos (por exemplo, mais registos de determinados grupos étnicos ou bairros específicos), o sistema tenderá a replicar e amplificar esse viés.

No plano jurídico e ético, a deteção de intenções levanta riscos de violação do princípio da presunção de inocência e do direito à privacidade. Na União Europeia, qualquer sistema deste tipo seria classificado como “alto risco” pela futura Lei Europeia da Inteligência Artificial, exigindo justificações sólidas, supervisão humana obrigatória e auditorias regulares. No Brasil e nos Estados Unidos, onde algumas forças de segurança testam abordagens mais agressivas de policiamento preditivo, já se registaram casos de contestação judicial e pedidos de maior transparência no código e nos dados usados.

A aplicação prática mais prudente, atualmente, é usar estas câmaras como ferramenta auxiliar, nunca como base exclusiva para ações coercivas. Em sistemas bem regulados, um alerta gerado pela IA não resulta automaticamente numa abordagem policial, mas serve para direcionar atenção operacional para situações que, de outro modo, poderiam passar despercebidas entre centenas ou milhares de feeds de vídeo.

Mais crónicas do autor
04 de outubro de 2025 às 10:00

A Inteligência artificial e a segurança nacional

A inteligência artificial já é utilizada para detetar padrões de comportamento anómalos nas redes governamentais e militares, permitindo identificar ciberataques antes que causem danos significativos.

25 de setembro de 2025 às 12:25

134.º Aniversário Polícia Municipal de Lisboa

Na semana passada realizou-se mais um aniversário da Polícia Municipal de Lisboa, dissequemos em primeiro instância as suas origens e evolução histórica.

04 de setembro de 2025 às 07:00

A urgência de uma Nova Lei Orgânica para a PSP: entre a tradição e o futuro da Segurança Interna

A PSP enfrenta hoje fenómenos que não existiam ou eram marginais em 2007: ransomware, ataques híbridos a infraestruturas críticas, manipulação da informação em redes sociais. Estes fenómenos exigem novas estruturas orgânicas dedicadas ao ciberespaço, com autonomia, meios próprios e formação contínua.

21 de agosto de 2025 às 07:32

É urgente reconhecer a polícia

O descontentamento que se vive dentro da Polícia de Segurança Pública resulta de décadas de acumulação de fragilidades estruturais: salários de entrada pouco acima do mínimo nacional, suplementos que não refletem o risco real da função, instalações degradadas e falta de meios operacionais.

16 de agosto de 2025 às 10:00

A Cibersegurança em Portugal: Estratégia Nacional, Estruturas Públicas e Atuação das Forças Policiais

A evolução constante das técnicas de ataque, a interdependência digital e a escassez de quadros especializados exigem que Portugal continue a apostar numa cibersegurança estratégica, transversal, e sustentada.

Mostrar mais crónicas
Panorama

Perto das pessoas e das comunidades

Os municípios portugueses têm tido um papel fulcral na promoção da saúde, do bem-estar e da inclusão. E é justamente neste âmbito que se destaca o contributo que a psicologia como ciência e profissão pode dar no cumprimento e na otimização dessa missão.