Como enfrentar o uso da IA na academia
Segundo a perspetiva histórica, os ludistas estavam certos no essencial, antecipando problemas sociais e económicos complexos e graves, mas estavam errados nos meios, e modos, de resolver o problema.
“Technologies are forms of life.
They embody specific forms of power and authority.”
Langdon Winner, The Whale and the Reactor (1986)
Os manifestos que atentam contra o progresso raramente singram no seu tempo, mas podem mudar o curso da história.
O exemplo dos luditas, no início do século XIX, no contexto da Revolução Industrial, é particularmente elucidativo. Vencidos no seu tempo, vencedores no meu e no seu.
Estes qualificados artesãos ingleses, sob a mítica liderança de Neil Ludd, donde advém a designação dos insurgentes, procuraram, sem sucesso, travar a evolução tecnológica do seu tempo - a mecanização e a industrialização - e impedir a introdução de novas máquinas nas fábricas. Foram reprimidos, ridicularizados e rotulados como inimigos do progresso.
No entanto, a historiografia contemporânea mostra que os luditas não se opunham à tecnologia em si, mas à sua introdução e utilização sem regras, sem proteção social e sem consideração pela dignidade do trabalho. Ora, as suas reivindicações culminaram, décadas mais tarde, em grandes conquistas laborais e sociais: direito laboral, negociação coletiva, segurança social… Estado-Providência!
Ou seja, segundo a perspetiva histórica, os ludistas estavam certos no essencial, antecipando problemas sociais e económicos complexos e graves, mas estavam errados nos meios, e modos, de resolver o problema. Os luditas anteciparam, por exemplo, a precarização do trabalho, a perda de autonomia profissional, a necessidade de inspeções dos equipamentos e a limitação do trabalho infantil, além disso, forçaram o debate público sobre regulação do trabalho industrial.
Porém, apesar de estarem certos no diagnóstico, falharam no método e na solução.
Recentemente, um manifesto fez-me lembrar, mutatis mutandis, a história do movimento ludista. Há duas semanas, vinte e oito docentes do ensino superior, maioritariamente da Universidade de Évora e Lisboa, subscreveram e publicaram um manifesto intitulado «Por um ensino superior humanizado - Manifesto contra o uso da “inteligência” artificial generativa», no qual defendem, como ponto de partida, a urgência de “proibição do uso da IA” e suspender as suas ferramentas, nos “processos de ensino-aprendizagem”, em nome da “humanização do ensino superior” e do “primado da relação humana”.
Com todo o respeito pelos insignes académicos, o manifesto padece, grosso modo, de alguns dos erros e debilidades do manifesto e movimento ludista.
Em primeiro lugar, ao contrário da citação das três obras de organizações internacionais podem dar a entender, logo no início do manifesto, a UNESCO, OCDE e EU não se pronunciam pela proibição do uso de IA, antes, mostram a necessidade de a IA dever ser usada na educação apenas se for segura, ética e bem regulada ou governada, ou seja, enquadrada e conduzida de forma democrática, justa e transparente e com responsabilização (accountability).
Os subscritores do manifesto têm razão no alarme ético, epistémico e escolar sobre o uso da IA e quando identificam como riscos reais: a erosão da autoria intelectual, a fragilização da avaliação, a externalização do esforço cognitivo, a desigualdade no acesso e a crescente dependência de plataformas privadas globais.
Porém, falha no desenho da solução, tampouco da política, porque a resposta a um problema complexo de políticas não é, não pode ser, a mera e acrítica proibição e soluções afins.
A história mostra que negação total falha ou a adoção acrítica de qualquer desenvolvimento tecnológico pode ser arriscado, se não mesmo desastroso, seja pela normalização da censura, seja por via cegueira.
A história não é mudada por quem impede a máquina de avançar, mas por quem obriga a sociedade a decidir como ela avança e a que custo.
Segundo as lições de políticas, a governação e deliberação democráticas são, apesar de mais difíceis, as soluções mais eficazes, incluindo o ponto de vista ético.
O ponto mais forte do manifesto está, porém, num plano mais profundo: a intuição de que a IA não ameaça apenas métodos pedagógicos, mas o próprio modo como a universidade sabe que alguém sabe. Durante séculos, o texto académico, o exame, as respostas escritas ou orais funcionaram como indícios imperfeitos, mas razoavelmente fiáveis, do pensamento e da compreensão de um estudante. Ora, a IA generativa rompe essa ligação, pois, um texto pode hoje ser formalmente excelente sem corresponder a conhecimento incorporado, tampouco subscrito pelo verdadeiro autor.
Onde ele se torna mais frágil é na resposta proposta: a proibição generalizada do uso da IA nos processos de ensino-aprendizagem. Essa conclusão é excessivamente binária. Não distingue usos, contextos, níveis de ensino ou tipos de avaliação. Confunde, em alguns momentos, problemas de governação tecnológica (dependência de grandes empresas, opacidade dos modelos) com problemas pedagógicos e avaliativos. E ignora um conjunto significativo de boas práticas internacionais já em curso.
Com efeito, a evidência disponível, ainda incompleta, mas consistente, aponta em direção contrária. Em vez de proibir ou suspender, instituições do ensino superior na Europa e no mundo desenvolvido têm optado por delimitar com clareza e determinabilidade as normas e práticas, a proibição restrita a exames e avaliações nucleares; uso condicionado e transparente em trabalhos; integração crítica da IA como objeto de análise e literacia; redesenho da avaliação para privilegiar processos, oralidade, defesa e demonstração de competências. Esta abordagem não normaliza a dependência.
A questão central não é, portanto, ser “a favor” ou “contra” a IA. É saber se a escola ou academia reage por bloqueio (proibições) ou por responsabilidade (políticas). Proibir pode ser uma resposta confortável ou mesmo compreensível num momento de choque tecnológico, mas constitui um não caminho, pois, anula todas as soluções verdadeiramente positivas que acompanham o progresso da realidade, incluindo humana e social.
Nestes termos, “tudo ou nada” é uma abordagem politicamente mobilizadora, mas inadequada como política pública.
A boa governação académica exige passos eticamente certos e politicamente eficazes. Por exemplo:
- Transformar o alerta numa política prioritária e proporcional, democraticamente deliberada (incluindo estudantes), baseada em evidência e na abordagem de risco;
- Redesenhar os métodos e meios de avaliação e os modelos de responsabilização;
- Diferenciar os usos por ator escolar (professor, estudante, outro) e por tipo de contexto e tarefa;
- Formar, de forma séria, contínua e obrigatória em IA todos os atores escolares;
- Rever os mecanismos de monitorização e apoio aos estudantes por parte dos professores;
- Criar e difundir guias e códigos de ética e conduta aplicáveis, e incorporados;
- Centrar as políticas de IA nas pessoas e na confiança destas;
- Proibir explicitamente certos usos (ex.: avaliação automática sem intervenção humana, vigilância algorítmica) e condicionar fortemente outros (ex.: apoio à escrita, análise de dados);
- Autorizar e incentivar usos pedagógicos críticos e formativos.
Exemplos de políticas e medidas, baseados em evidência, para regular a IA existem. Há que enfrentá-los, reunir e agir.
A boa governação da Inteligência Artificial é a verdadeira responsabilidade académica do nosso tempo, não a sua proibição ou censura generalizada.
Como enfrentar o uso da IA na academia
Segundo a perspetiva histórica, os ludistas estavam certos no essencial, antecipando problemas sociais e económicos complexos e graves, mas estavam errados nos meios, e modos, de resolver o problema.
Porque votar importa e, desta vez, em Seguro
A abstenção atual não nasce da ignorância e indecisão, mas da desilusão e elevada exigência diária, incluindo a leitura e reflexão. A abstenção não corrige o sistema, torna-o mais pobre. Menor participação fragiliza a legitimidade democrática e amplifica, pelo fenómeno da dispersão de votos, os extremos, amiúde fortemente organizados e hierarquizados.
Tomando os desejos de “bom ano” a sério
O poder das palavras é superpoderoso. Porém, as palavras, por si só, não têm o poder de fazer acontecer ou organizar a nossa vida, as nossas escolhas ou o nosso tempo.
Por que a inovação, e o país, precisa de burocracia
Os governos devem instituir burocracias de inovação, constelações de organizações públicas que criam, fazem, financiam, intermedeiam e regulam inovação, suportando a estabilidade ágil do Estado empreendedor.
Estagilidade - a buzzword de 2025
A palavra pretende captar a novel capacidade ou competência de gerir e liderar duas forças universalmente opostas – estabilidade e agilidade.
Edições do Dia
Boas leituras!