Pensar a IA Generativa na Educação: da regulação à ecologia da aprendizagem

O ponto de partida
A Atividade 6 da unidade curricular Educação e Sociedade em Rede propôs-nos um desafio simultaneamente teórico e prático: contribuir, num fórum moderado pelo Professor António Quintas-Mendes, para a construção de um código de boas práticas sobre o uso responsável da IA Generativa nos processos de aprendizagem.
Quando comecei a preparar a minha participação, o debate já ia avançado. Os colegas tinham mapeado com rigor os principais referenciais — as Orientações Éticas da Comissão Europeia, o Regulamento de IA, as recomendações da UNESCO, experiências de universidades brasileiras. Faltava-me, portanto, encontrar um ângulo que pudesse acrescentar algo ao que já tinha sido dito, sem me limitar a repetir ou a sintetizar.
Este post documenta o percurso dessa reflexão: as perguntas que me coloquei, os conceitos que mobilizei e as propostas que acabei por levar ao fórum.
O problema da obsolescência normativa
A minha primeira intuição foi de desconforto. Não com os contributos dos colegas — que me pareceram sólidos e bem fundamentados — mas com a própria lógica que enquadrava a discussão. Falámos muito em “regulação”, em “orientações”, em “códigos”. São instrumentos necessários, sem dúvida. Mas perguntei-me: serão suficientes?
A velocidade com que a IA generativa evolui coloca um problema que me parece estrutural. Qualquer normativa que elaboremos hoje sobre o ChatGPT ou o Claude arrisca tornar-se obsoleta em meses, quando surgirem novas ferramentas com capacidades que nem sequer imaginamos. Proibir ou permitir usos específicos é, neste contexto, um pouco como tentar regular o trânsito de uma cidade cujas ruas mudam de configuração todas as semanas.
Esta constatação levou-me a procurar uma abordagem complementar — não alternativa, mas complementar — aos referenciais normativos. E encontrei-a num conceito que Brigid Barron desenvolveu em 2006: a “ecologia da aprendizagem”.
Da regulação à ecologia
Para Barron (2006), uma ecologia da aprendizagem designa o conjunto de contextos, relações e recursos — formais e informais — que sustentam a aprendizagem de um indivíduo ao longo da vida. O conceito convida-nos a olhar para além das fronteiras institucionais e a reconhecer que aprendemos em múltiplos espaços, através de múltiplas interações, nem sempre planeadas ou supervisionadas.
Aplicado à questão da IA generativa, este enquadramento sugere uma mudança de foco. Em vez de perguntar apenas “que usos devemos permitir ou proibir?”, passamos a perguntar: “que disposições críticas precisamos de cultivar para que os aprendentes naveguem autonomamente em paisagens tecnológicas em permanente mutação?”
A diferença é subtil mas significativa. Uma abordagem puramente regulatória tende a produzir conformidade externa — o estudante cumpre as regras porque são regras. Uma abordagem ecológica visa produzir autonomia crítica — o estudante desenvolve capacidade de ajuizar por si mesmo, mesmo em contextos que o código não antecipou.
Isto não significa abandonar a regulação. Significa reconhecer que ela é condição necessária mas não suficiente, e que precisa de ser complementada por práticas formativas que cultivem o que poderíamos chamar de “literacia ecológica” sobre a IA.
O paradoxo da transparência
Uma das ideias mais consensuais no debate foi a importância da transparência: o estudante deve declarar quando e como usa a IA. Concordei inteiramente com o princípio — mas quis problematizá-lo.
Nos debates anteriores desta unidade curricular, explorámos com Baudrillard e Virilio a ambivalência da transparência nos ambientes digitais. Ficou claro que a visibilidade pode converter-se em “obscenidade” quando se reduz a gesto performativo: quanto mais se mostra, menos se revela. A transparência prometida pelas plataformas é frequentemente ilusória porque se esgota na declaração formal, sem implicar compreensão ou reflexão.
Ora, o mesmo risco existe na transparência sobre o uso de IA. Declarar “usei o ChatGPT para rever este texto” pode satisfazer uma exigência administrativa sem gerar qualquer aprendizagem. É uma transparência de conformidade, não de transformação.
Foi a partir desta constatação que desenvolvi uma distinção que me pareceu útil: entre transparência declarativa e transparência generativa.
A transparência declarativa limita-se a cumprir um requisito formal. A transparência generativa transforma a declaração em oportunidade de aprendizagem. Concretamente, em vez de apenas declarar que usou IA, o estudante seria convidado a explicitar: que prompts utilizou e porquê; que limitações ou enviesamentos identificou no output; que transformações críticas operou sobre o material gerado; que aprendeu com o processo.
Esta prática — que algumas universidades anglo-saxónicas já experimentam sob designações como “AI use reflection” — converte o momento da declaração num exercício metacognitivo com valor formativo próprio. O estudante não apenas declara; reflete. E ao refletir, aprende.
Repensar a autoria
Houve uma questão que me pareceu insuficientemente explorada no debate: a própria noção de autoria. O receio dominante — compreensível — é que a IA dissolva a autoria do estudante, transformando-o em mero curador de textos gerados por máquinas. Mas perguntei-me se não valeria a pena inverter a questão.
E se a IA nos estivesse a obrigar a confrontar uma verdade incómoda: que a autoria sempre foi mais problemática do que admitíamos?
Nenhum texto é inteiramente “original”, no sentido de surgir do nada. Escrevemos sempre em diálogo com fontes, influências, estruturas discursivas que nos precedem. Citamos, parafraseamos, reformulamos, combinamos. A tradição académica reconhece isto através das convenções de citação, mas mantém a ficção de um “autor” que é origem e proprietário do seu texto.
O que a IA generativa faz é tornar este processo — que antes permanecia discreto — brutalmente visível. Quando o ChatGPT produz um parágrafo que o estudante depois edita, fica evidente que o texto resulta de uma montagem, não de uma génese ex nihilo. Mas não era já assim antes, apenas de forma menos óbvia?
Roland Barthes, em 1968, proclamou “a morte do autor” precisamente para denunciar a ilusão de que o texto emana de uma subjetividade soberana. O autor, argumentava Barthes, é uma função, não uma origem. O texto é um tecido de citações, vindas dos mil focos da cultura.
Meio século depois, a IA generativa parece dar-lhe razão de forma inesperada. E talvez possamos aproveitar pedagogicamente esta revelação, em vez de a lamentar.
A proposta que levei ao fórum foi esta: em vez de uma ética da originalidade — assente na ficção de que o texto “nasce” do autor — desenvolver uma ética da responsabilidade. O autor não é quem cria do nada; é quem assume responsabilidade crítica por aquilo que apresenta como seu. Isto implica compreender, poder defender, ser capaz de justificar. Implica, em suma, apropriar-se genuinamente do texto, mesmo que partes dele tenham sido geradas com assistência tecnológica.
Esta perspetiva encontra eco no trabalho recente de Sarah Elaine Eaton (2023) sobre integridade académica na era da IA, que defende precisamente a passagem de uma ética da originalidade para uma ética da responsabilidade.
Três princípios para um código capacitador
A partir destas reflexões, propus no fórum três princípios que me pareceram poder orientar um código de boas práticas menos prescritivo e mais capacitador.
O primeiro é o princípio da subsidiariedade cognitiva. A IA deve ser usada para apoiar, não para substituir, operações cognitivas que o estudante precisa de desenvolver. O critério não é se a IA foi usada, mas se o seu uso contribuiu para ou impediu a aprendizagem visada.
Um exemplo ajuda a clarificar. Um estudante que usa a IA para gerar um resumo que depois não lê não aprendeu nada — a IA substituiu uma operação cognitiva que ele precisava de fazer. Mas um estudante que usa a IA para gerar um resumo alternativo ao seu, compara as duas versões e reflete sobre as diferenças, pode ter aprendido mais do que se trabalhasse sozinho — a IA funcionou como parceiro de pensamento, não como substituto.
O segundo é o princípio da transparência generativa, já desenvolvido: toda a utilização de IA deve ser acompanhada de reflexão explícita sobre o processo, convertendo a declaração de uso em oportunidade de aprendizagem metacognitiva.
O terceiro é o princípio da equidade epistémica. O acesso desigual às ferramentas de IA e, sobretudo, às competências para as usar criticamente constitui uma nova forma de estratificação. Quem já possui capital cultural elevado — vocabulário rico, capacidade de formular boas perguntas, competências de avaliação crítica — está em muito melhores condições para tirar partido da IA do que quem não possui estas competências.
Um código de boas práticas deve, por isso, incluir uma dimensão formativa que garanta a todos os estudantes — independentemente do seu ponto de partida — a possibilidade de desenvolver literacia crítica sobre IA. Não basta regular; é preciso capacitar. Sem esta dimensão, a IA generativa arrisca tornar-se mais um fator de reprodução das desigualdades que a educação deveria combater.
Uma nota sobre coerência
Termino com uma observação que me pareceu importante incluir no fórum, ainda que pudesse ser lida como incómoda.
Este debate sobre IA generativa na educação decorreu num espaço académico onde todos nós — e assumo falar por mim — provavelmente já recorremos a estas ferramentas de alguma forma: para pesquisar, para organizar ideias, para verificar formulações, para explorar perspetivas alternativas. É o nosso quotidiano enquanto estudantes e profissionais em 2025.
Pareceu-me que seria incoerente defender a transparência generativa sem a praticar. Por isso, no fórum, não me limitei a propor que os outros declarem e reflitam sobre os seus usos de IA. Tentei, eu própria, manter essa postura de abertura reflexiva.
A IA generativa já está presente nas nossas vidas académicas. Fingir o contrário — relegar o seu uso para uma zona de sombra de que não se fala — seria perpetuar precisamente a lógica de opacidade que dizemos querer combater. A questão não é se devemos usar estas ferramentas, mas como as podemos usar de forma que potencie, em vez de atalhar, os processos de pensamento que a universidade deve cultivar.
E essa é uma pergunta que só podemos responder fazendo: experimentando, refletindo, errando, ajustando, partilhando. Precisamente o que este mestrado, com o seu modelo pedagógico centrado na interação e na construção colaborativa de conhecimento, nos convida a fazer.
Referências
Barron, B. (2006). Interest and self-sustained learning as catalysts of development: A learning ecology perspective. Human Development, 49(4), 193–224. https://doi.org/10.1159/000094368
Barthes, R. (1968). La mort de l’auteur. Manteia, 5, 12–17.
Comissão Europeia. (2022). Orientações éticas para educadores sobre a utilização de IA e de dados no ensino e na aprendizagem. Serviço das Publicações da União Europeia. https://op.europa.eu/pt/publication-detail/-/publication/d81a0d54-5348-11ed-92ed-01aa75ed71a1
Eaton, S. E. (2023). The academic integrity technological arms race and its impact on learning, teaching, and assessment. Canadian Journal of Learning and Technology, 49(1), 1–17. https://doi.org/10.21432/cjlt28388
Parlamento Europeu & Conselho da União Europeia. (2024). Regulamento (UE) 2024/1689 que cria regras harmonizadas em matéria de inteligência artificial (Regulamento IA). Jornal Oficial da União Europeia, L 1689. https://eur-lex.europa.eu/eli/reg/2024/1689/oj
Pereira, A., Quintas-Mendes, A., Morgado, L., Amante, L., & Bidarra, J. (2007). Modelo pedagógico virtual da Universidade Aberta. Universidade Aberta.
UNESCO. (2021). Recomendação sobre a ética da inteligência artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137_por


