Sábado – Pense por si

Álvaro Rocha
Álvaro Rocha Professor Universitário
12 de março de 2026 às 08:48

A próxima catástrofe pode vir da IA

Capa da Sábado Edição 10 a 16 de março
Leia a revista
Em versão ePaper
Ler agora
Edição de 10 a 16 de março

A pressão para acelerar é enorme. A inteligência artificial tornou-se um campo central da competição geopolítica entre grandes potências, em particular entre os Estados Unidos e a China. Nenhum país quer ficar para trás.

A inteligência artificial (IA) tornou-se, em poucos anos, uma das tecnologias mais influentes do nosso tempo. Está a transformar a economia, a ciência, a administração pública e até a forma como trabalhamos e comunicamos. Mas à medida que os sistemas de IA se tornam mais poderosos, cresce também uma inquietação legítima: estaremos a avançar demasiado depressa para uma tecnologia que ainda compreendemos mal e controlamos pior?

Um artigo recente da revista The Economist chama a atenção precisamente para esse risco. A tensão entre o governo dos Estados Unidos e a empresa Anthropic, uma das mais importantes empresas mundiais de inteligência artificial, ilustra bem o dilema que hoje se coloca. Por um lado, os governos querem acelerar o desenvolvimento e a aplicação da IA para garantir vantagem económica, tecnológica e militar. Por outro, alguns dos próprios criadores da tecnologia alertam para os perigos de avançar sem salvaguardas suficientes.

A pressão para acelerar é enorme. A inteligência artificial tornou-se um campo central da competição geopolítica entre grandes potências, em particular entre os Estados Unidos e a China. Nenhum país quer ficar para trás. Nenhuma empresa quer perder a corrida tecnológica. Neste contexto, a prudência é frequentemente vista como um entrave à inovação.

Contudo, os riscos já deixaram de ser meramente teóricos. Sistemas de IA estão a ser utilizados para ajudar hackers a explorar vulnerabilidades informáticas, facilitar ataques de engenharia social e desenvolver software malicioso com maior rapidez. Alguns especialistas alertam também para o facto de estas ferramentas poderem vir a facilitar o desenvolvimento de novas armas biológicas ou químicas, contornando mecanismos de controlo que até agora têm funcionado.

Outro desafio prende-se com a própria complexidade crescente destes sistemas. Os modelos de inteligência artificial mais avançados começam a ser utilizados para desenvolver novas gerações de IA, criando ciclos de autoaperfeiçoamento cada vez mais difíceis de supervisionar. À medida que isso acontece, torna-se também mais difícil compreender plenamente o funcionamento destes sistemas e prever o seu comportamento.

Apesar de tudo isto, a discussão pública sobre os riscos da inteligência artificial parece ter perdido intensidade. Nos últimos anos, algumas cimeiras internacionais que inicialmente se centravam na segurança da IA passaram progressivamente a destacar sobretudo as suas oportunidades económicas e tecnológicas. O discurso dominante deixou de ser o da precaução e passou a ser o da competitividade.

Nada disto significa que devamos travar o progresso tecnológico. Pelo contrário, a inteligência artificial tem um potencial extraordinário para melhorar a medicina, a educação, a produtividade e muitos outros sectores da sociedade. O problema surge quando o entusiasmo tecnológico substitui o debate crítico e a reflexão estratégica.

A história da tecnologia ensina-nos que as grandes inovações raramente são neutras. A energia nuclear trouxe eletricidade e também armas devastadoras. A internet revolucionou a comunicação, mas abriu igualmente espaço a novas formas de manipulação, fraude e crime. A inteligência artificial parece seguir um percurso semelhante, mas muito mais rápido e impactante.

A verdadeira questão não é se devemos desenvolver inteligência artificial, porque esse processo é inevitável. A questão essencial é como o fazemos. Sem regras claras, sem mecanismos eficazes de supervisão e sem cooperação internacional, o risco de um acidente tecnológico grave torna-se cada vez mais plausível.

Talvez não seja exagero admitir que um dia possamos assistir a um “momento Chernobyl” da inteligência artificial, um episódio que revele de forma dramática os perigos de uma tecnologia que avançou mais depressa do que a capacidade de a regular.

Ainda estamos a tempo de evitar esse cenário. Mas para isso é necessário reconhecer uma realidade simples: quanto maior é o poder de uma tecnologia, maior deve ser também a responsabilidade com que a desenvolvemos e utilizamos.

Mais crónicas do autor
12 de março de 2026 às 08:48

A próxima catástrofe pode vir da IA

A pressão para acelerar é enorme. A inteligência artificial tornou-se um campo central da competição geopolítica entre grandes potências, em particular entre os Estados Unidos e a China. Nenhum país quer ficar para trás.

05 de março de 2026 às 07:14

A ascensão imparável da Índia

A Índia deixou de ser vista apenas como um mercado emergente de baixo custo. Hoje é um ator central nas indústrias de ponta. Consolidou-se como potência mundial em software, serviços digitais, inteligência artificial, biotecnologia e indústria farmacêutica.

26 de fevereiro de 2026 às 17:51

Balão do Ministro da Agricultura perto de estourar

Desde que tomou posse, o ministro tem acumulado episódios que revelam uma dificuldade recorrente em separar convicção pessoal de responsabilidade institucional. O exemplo mais mediático terá sido a afirmação de que “a longevidade é maior onde se bebe tinto verde”.

23 de fevereiro de 2026 às 11:32

A “roubalheira” da Uber Eats

Se a comida não chega, o cliente tem de provar que estava em casa. Se o estafeta declara que ligou, o sistema regista essa versão como válida. A presunção parece funcionar sempre contra quem paga.

21 de fevereiro de 2026 às 08:00

China será a primeira economia do mundo

Durante décadas, prevaleceu no Ocidente a narrativa de que a China fabricava enquanto a Europa e os Estados Unidos inventavam. Essa distinção deixou de corresponder à realidade.

Mostrar mais crónicas