Secções
Entrar
Álvaro Rocha Professor Universitário
16.04.2026

Quando a IA Aprende a Atacar e a Defender

O que torna esta evolução particularmente relevante não é apenas a sofisticação tecnológica, mas a sua escalabilidade.

A inteligência artificial (IA) deixou definitivamente de ser apenas uma promessa tecnológica para se afirmar como uma infraestrutura crítica da economia global. Contudo, há momentos em que determinados avanços nos obrigam a mudar o foco da discussão. Já não se trata apenas do que a IA pode fazer por nós, mas do que poderá fazer contra nós.

O recente desenvolvimento do modelo Mythos, pela Anthropic, e o anúncio, esta semana, de um novo modelo de cibersegurança pela OpenAI (GPT-5.4-Cyber), colocam-nos precisamente nesse ponto de inflexão. Não estamos perante mais um avanço incremental. Estamos perante uma mudança qualitativa na natureza da própria ameaça digital.

Durante décadas, a cibersegurança foi um domínio altamente especializado. Identificar vulnerabilidades críticas em software exigia conhecimento profundo, experiência acumulada e, frequentemente, um certo grau de intuição criativa. Explorar essas vulnerabilidades era ainda mais complexo. Hoje, esse paradigma começa a ruir. Sistemas de IA são já capazes de identificar falhas, sugerir formas de exploração e até automatizar processos que antes exigiam equipas inteiras de especialistas.

O que torna esta evolução particularmente relevante não é apenas a sofisticação tecnológica, mas a sua escalabilidade. À medida que estas ferramentas se tornam mais acessíveis, o risco deixa de estar concentrado em grupos altamente qualificados e passa a abranger um universo muito mais vasto de potenciais atacantes. A história da tecnologia é clara. Aquilo que pode ser feito acabará, inevitavelmente, por ser feito.

Mas seria um erro olhar para este fenómeno apenas pelo prisma da ameaça. O mesmo tipo de modelos que hoje levantam preocupações pode também representar um salto significativo na capacidade de defesa. A possibilidade de identificar vulnerabilidades antes de serem exploradas, de testar sistemas de forma contínua e automatizada e de antecipar ataques com base em padrões complexos abre novas fronteiras na proteção digital.

É precisamente nesta dualidade que reside o verdadeiro desafio. A recente decisão de limitar o acesso a estes modelos, tanto por parte da Anthropic como da OpenAI, não é um sinal de fraqueza. É um sinal de maturidade. Representa o reconhecimento de que estamos a entrar numa fase em que o poder da tecnologia ultrapassa, em muitos casos, a capacidade de controlo institucional e social.

Contudo, esta contenção voluntária levanta uma questão crítica. Até que ponto é sustentável. Num ecossistema global altamente competitivo, onde empresas e países disputam liderança tecnológica, a tentação de acelerar o desenvolvimento e a disponibilização destas ferramentas será sempre elevada. A tensão entre inovação e segurança não é nova, mas assume agora uma dimensão sem precedentes.

Neste contexto, a Europa pode desempenhar um papel determinante. Frequentemente criticada por uma abordagem regulatória exigente, a União Europeia tem aqui uma oportunidade histórica para definir padrões globais. Não se trata de travar a inovação, mas de garantir que esta evolui dentro de um quadro de responsabilidade. Porque, na ausência de regras claras, o que emerge não é liberdade, mas vulnerabilidade sistémica.

O que está em causa não é apenas a evolução tecnológica, mas a própria natureza do equilíbrio de poder no espaço digital. Se, no passado, a ameaça cibernética estava concentrada em Estados e grandes organizações, a inteligência artificial tem o potencial de democratizar, para o bem e para o mal, essa capacidade.

O Mythos e o novo modelo de cibersegurança da OpenAI não são, por si só, ameaças iminentes. São, antes, sinais claros de uma transição. Estamos a entrar numa era em que máquinas não apenas executam tarefas, mas participam ativamente na identificação e exploração de fragilidades em sistemas críticos.

A questão fundamental já não é se devemos continuar a avançar. Essa decisão foi tomada há muito. A verdadeira questão é se estamos preparados, enquanto sociedade, enquanto economia e enquanto sistema político, para lidar com as consequências de uma inteligência artificial que não apenas resolve problemas, mas também os pode criar.

Mais crónicas do autor
16 de abril de 2026 às 11:30

Quando a IA Aprende a Atacar e a Defender

O que torna esta evolução particularmente relevante não é apenas a sofisticação tecnológica, mas a sua escalabilidade.

09 de abril de 2026 às 12:56

Portugal contra a ciência: o caso dos concursos de professores

Se queremos um sistema académico mais justo, transparente e competitivo, é urgente recentrar os concursos de professores do ensino superior em critérios objetivos, comparáveis e internacionalmente reconhecidos.

02 de abril de 2026 às 10:41

Proibir não é competir: o dilema tecnológico da Europa

Hoje há mais maturidade tecnológica e maior consciência política. Mas há uma questão essencial que a Europa parece ignorar: libertar-se da dependência não pode significar apenas trocar produtos americanos por soluções “open source”.

26 de março de 2026 às 11:54

Enquanto a Europa regula, a China conquista o futuro

O modelo económico que sustentou o crescimento chinês (baseado em mão de obra abundante, exportações e investimento em infraestruturas) está esgotado.

19 de março de 2026 às 13:40

As nossas universidades foram capturadas por elites medíocres

Como podem as nossas universidades permitir que a avaliação do mérito seja conduzida por quem, objetivamente, apresenta níveis de desempenho muito inferiores aos avaliados?

Mostrar mais crónicas