Tudo o que precisa de saber sobre o que está a acontecer em Portugal e no mundo.
Enviada de segunda a domingo às 21h
A pressão para acelerar é enorme. A inteligência artificial tornou-se um campo central da competição geopolítica entre grandes potências, em particular entre os Estados Unidos e a China. Nenhum país quer ficar para trás.
A inteligência artificial (IA) tornou-se, em poucos anos, uma das tecnologias mais influentes do nosso tempo. Está a transformar a economia, a ciência, a administração pública e até a forma como trabalhamos e comunicamos. Mas à medida que os sistemas de IA se tornam mais poderosos, cresce também uma inquietação legítima: estaremos a avançar demasiado depressa para uma tecnologia que ainda compreendemos mal e controlamos pior?
Um artigo recente da revista The Economist chama a atenção precisamente para esse risco. A tensão entre o governo dos Estados Unidos e a empresa Anthropic, uma das mais importantes empresas mundiais de inteligência artificial, ilustra bem o dilema que hoje se coloca. Por um lado, os governos querem acelerar o desenvolvimento e a aplicação da IA para garantir vantagem económica, tecnológica e militar. Por outro, alguns dos próprios criadores da tecnologia alertam para os perigos de avançar sem salvaguardas suficientes.
A pressão para acelerar é enorme. A inteligência artificial tornou-se um campo central da competição geopolítica entre grandes potências, em particular entre os Estados Unidos e a China. Nenhum país quer ficar para trás. Nenhuma empresa quer perder a corrida tecnológica. Neste contexto, a prudência é frequentemente vista como um entrave à inovação.
Contudo, os riscos já deixaram de ser meramente teóricos. Sistemas de IA estão a ser utilizados para ajudar hackers a explorar vulnerabilidades informáticas, facilitar ataques de engenharia social e desenvolver software malicioso com maior rapidez. Alguns especialistas alertam também para o facto de estas ferramentas poderem vir a facilitar o desenvolvimento de novas armas biológicas ou químicas, contornando mecanismos de controlo que até agora têm funcionado.
Outro desafio prende-se com a própria complexidade crescente destes sistemas. Os modelos de inteligência artificial mais avançados começam a ser utilizados para desenvolver novas gerações de IA, criando ciclos de autoaperfeiçoamento cada vez mais difíceis de supervisionar. À medida que isso acontece, torna-se também mais difícil compreender plenamente o funcionamento destes sistemas e prever o seu comportamento.
Apesar de tudo isto, a discussão pública sobre os riscos da inteligência artificial parece ter perdido intensidade. Nos últimos anos, algumas cimeiras internacionais que inicialmente se centravam na segurança da IA passaram progressivamente a destacar sobretudo as suas oportunidades económicas e tecnológicas. O discurso dominante deixou de ser o da precaução e passou a ser o da competitividade.
Nada disto significa que devamos travar o progresso tecnológico. Pelo contrário, a inteligência artificial tem um potencial extraordinário para melhorar a medicina, a educação, a produtividade e muitos outros sectores da sociedade. O problema surge quando o entusiasmo tecnológico substitui o debate crítico e a reflexão estratégica.
A história da tecnologia ensina-nos que as grandes inovações raramente são neutras. A energia nuclear trouxe eletricidade e também armas devastadoras. A internet revolucionou a comunicação, mas abriu igualmente espaço a novas formas de manipulação, fraude e crime. A inteligência artificial parece seguir um percurso semelhante, mas muito mais rápido e impactante.
A verdadeira questão não é se devemos desenvolver inteligência artificial, porque esse processo é inevitável. A questão essencial é como o fazemos. Sem regras claras, sem mecanismos eficazes de supervisão e sem cooperação internacional, o risco de um acidente tecnológico grave torna-se cada vez mais plausível.
Talvez não seja exagero admitir que um dia possamos assistir a um “momento Chernobyl” da inteligência artificial, um episódio que revele de forma dramática os perigos de uma tecnologia que avançou mais depressa do que a capacidade de a regular.
Ainda estamos a tempo de evitar esse cenário. Mas para isso é necessário reconhecer uma realidade simples: quanto maior é o poder de uma tecnologia, maior deve ser também a responsabilidade com que a desenvolvemos e utilizamos.
Se queremos um sistema académico mais justo, transparente e competitivo, é urgente recentrar os concursos de professores do ensino superior em critérios objetivos, comparáveis e internacionalmente reconhecidos.
Hoje há mais maturidade tecnológica e maior consciência política. Mas há uma questão essencial que a Europa parece ignorar: libertar-se da dependência não pode significar apenas trocar produtos americanos por soluções “open source”.
Como podem as nossas universidades permitir que a avaliação do mérito seja conduzida por quem, objetivamente, apresenta níveis de desempenho muito inferiores aos avaliados?
Para poder adicionar esta notícia aos seus favoritos deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.
Para poder votar newste inquérito deverá efectuar login.
Caso não esteja registado no site da Sábado, efectue o seu registo gratuito.