Avaliação em Contextos de eLearning

IA como espelho crítico: o que aprendemos ao questionar o que a inteligência artificial nos diz sobre avaliação em eLearning

No âmbito da Atividade 1 da UC Avaliação em Contextos de eLearning (Universidade Aberta), propusemo-nos explorar criticamente o estado da arte da avaliação pedagógica em contextos online, utilizando uma ferramenta de inteligência artificial generativa como ponto de partida. O artefacto interativo que se segue sintetiza visualmente as principais tensões identificadas neste exercício — entre o que a IA nos disse e o que a literatura científica nos mostrou:

✨ Atividade 1 · Par E
IA como espelho crítico
da avaliação em eLearning

O que acontece quando pedimos a uma IA o estado da arte e depois confrontamos as suas respostas com a literatura científica?

🤖
Pergunta à IA
💡
Ideias-chave
📚
Artigos científicos
🔍
Reflexão crítica

👆 Clica em cada cartão para ver o que a IA disse vs. o que a literatura científica revelou

🔄
🤖 O que a IA disse
Evolução da avaliação pedagógica

A avaliação evoluiu do paradigma sumativo para abordagens formativas centradas no processo. Autoavaliação e avaliação por pares promovem a autonomia do estudante.

Clica para ver a literatura
📖
✅ Literatura confirma
Oliveira & Pereira (2021)

Confirmam a centralidade da avaliação autêntica em contexto digital, defendendo tarefas que reflitam contextos reais. A IA captou a tendência, mas sem a riqueza conceptual dos autores.

Clica para voltar
🤖
🤖 O que a IA disse
IA e transformação da avaliação

A IA está a transformar as práticas avaliativas, automatizando feedback e personalizando a avaliação. Levanta também questões éticas sobre autoria e plágio.

Clica para ver a literatura
⚠️
📖 Literatura aprofunda
Swiecki et al. (2022)

Alertam para tensões éticas que a IA simplificou: equidade, viés algorítmico e opacidade dos sistemas de decisão exigem discussão pedagógica e política — não só soluções técnicas.

Clica para voltar
🎯
🤖 O que a IA disse
Autenticidade e integridade digital

Garantir autenticidade e integridade académica num ambiente digital é um dos principais desafios, bem como superar o isolamento do estudante online.

Clica para ver a literatura
💡
📖 Literatura aprofunda
Oliveira & Pereira (2021)

A autenticidade exige reconceptualizar o papel do professor e do estudante — não só melhores ferramentas. A IA identificou o desafio, mas não explorou as suas implicações pedagógicas.

Clica para voltar
🔗
🤖 O que a IA disse
Fluência sem fontes

A IA gerou respostas plausíveis e abrangentes, cobrindo as tendências com linguagem fluente, organizada e aparentemente autorizada.

Clica para ver o problema
🚨
⚠️ Limitação crítica
Sem fontes verificáveis

A IA não referenciou nenhuma fonte científica. As afirmações surgem sem suporte verificável — cabendo ao investigador o trabalho de validação. Isto é a literacia crítica em ação.

Clica para voltar

💬 “A fluência da linguagem não é garantia de rigor científico. Saber usar a IA como ponto de partida — e não como ponto de chegada — é a competência central que este exercício nos treinou.”

🔬 Principais conclusões
A IA acerta nas tendências gerais

As grandes linhas — avaliação formativa, autenticidade, IA como disruptor — são corretamente identificadas.

⚠️
A IA simplifica a complexidade ética e pedagógica

Os desafios são apresentados como problemas técnicos, omitindo tensões de equidade, poder e reconceptualização do papel docente.

🚨
A IA não cita fontes — e isso muda tudo

A ausência de referências verificáveis é uma limitação estrutural. A validação pela literatura permanece insubstituível.

🎓
Literacia crítica face à IA é uma competência académica nuclear

A relação produtiva com a IA exige formação crítica — não apenas competência técnica no uso das ferramentas.

✅ O que a IA acertou
  • Valorização da avaliação formativa
  • Papel da IA na automatização do feedback
  • Desafios de integridade em ambiente digital
  • Importância da avaliação autêntica
⚠️ O que a IA simplificou
  • Tensões éticas do algoritmo (viés, equidade)
  • Reconceptualização do papel docente
  • Complexidade política das reformas avaliativas
  • Ausência total de referências científicas

exercício: metodologia e ponto de partida

A ferramenta de IA utilizada foi o Claude Sonnet 4.6 Thinking (Anthropic), acedido através da plataforma Perplexity. Colocámos duas perguntas em sequência: primeiro, “Qual é o estado da arte da avaliação pedagógica em contextos de eLearning e quais são, atualmente, os principais desafios enfrentados?”; depois, aprofundámos com “De que forma a crescente integração de ferramentas de inteligência artificial está a transformar as práticas e os instrumentos de avaliação em ambientes de aprendizagem online?”

A resposta foi fluente, abrangente e bem organizada. A IA identificou a transição do paradigma sumativo para abordagens formativas, a valorização crescente da autoavaliação e da avaliação por pares, os desafios de integridade académica em ambientes digitais, e o papel transformador da própria IA nas práticas avaliativas. Em suma: um retrato plausível e coerente do tema.

Foi precisamente essa plausibilidade que nos colocou em alerta.


O que a literatura confirmou

A consulta de dois artigos científicos permitiu validar — e simultaneamente questionar — a resposta da IA.

Oliveira e Pereira (2021), no artigo Avaliação digital autêntica: Questões e desafios, publicado na revista RE@D, confirmam a centralidade da avaliação autêntica em contexto digital. As autoras defendem que as tarefas de avaliação devem refletir contextos reais e promover a transferência de competências para além da situação de aprendizagem, o que vai ao encontro do que a IA descreveu como tendência dominante do estado da arte. No entanto, o argumento das autoras não é meramente descritivo: é normativo e crítico, chamando atenção para as implicações pedagógicas concretas de redesenhar a avaliação — implicações que a IA simplesmente não explorou.

Swiecki et al. (2022), no artigo Assessment in the age of artificial intelligence, publicado na revista Computers and Education: Artificial Intelligence, confirmam igualmente que a IA está a transformar as práticas avaliativas. Os autores reconhecem o potencial da automatização do feedback e da personalização da aprendizagem a grande escala. Contudo, o que torna este artigo particularmente relevante para o nosso exercício é precisamente o que a IA omitiu: os autores dedicam uma atenção considerável às tensões éticas, políticas e estruturais que acompanham esta transformação — questões de equidade, viés algorítmico, opacidade dos sistemas de decisão automatizada e a necessidade de supervisão humana crítica.


O que a literatura nos revelou que a IA não disse

A confrontação com a literatura científica permitiu identificar três limitações significativas na resposta da IA.

Em primeiro lugar, a linearidade na apresentação dos desafios. A IA descreveu os obstáculos à avaliação autêntica em eLearning como se fossem problemas técnicos com soluções disponíveis. A literatura, em particular Swiecki et al. (2022), revela que muitos destes desafios são de natureza estrutural, política e ética — e não se resolvem apenas com melhores ferramentas ou algoritmos mais sofisticados.

Em segundo lugar, a omissão da dimensão pedagógica da reconceptualização. Oliveira e Pereira (2021) sublinham que a avaliação autêntica exige uma redefinição profunda do papel do professor e do estudante no processo avaliativo. A IA abordou esta dimensão de forma genérica, descrevendo tendências mas não problematizando as suas implicações para a prática docente concreta.

Em terceiro lugar, e de forma talvez mais fundamental, a ausência total de referências verificáveis. A IA gerou afirmações com aparente autoridade académica, mas sem nenhuma fonte citada. Esta limitação estrutural não é um pormenor: é o cerne da questão. Num contexto de investigação académica, a plausibilidade não substitui o rigor. O trabalho de validação — que este exercício nos propôs explicitamente — revelou-se não apenas útil, mas indispensável.


Reflexão: o que este exercício nos ensinou sobre IA e literacia académica

O que este exercício nos deixou, acima de tudo, é uma compreensão mais clara do papel que as ferramentas de IA podem e devem ter no processo de investigação académica.

A IA revelou-se um excelente mapa do território: permitiu-nos obter rapidamente uma visão panorâmica do estado da arte, identificar os temas centrais do debate e formular perguntas de pesquisa mais precisas para a leitura que se seguiu. Nesse sentido, foi genuinamente útil como ponto de partida.

No entanto, a IA falhou como guia de campo: não nos deu acesso às tensões internas do debate, às vozes dissonantes, às nuances conceptuais que diferenciam um investigador de outro, nem às implicações práticas que emergem de uma leitura atenta dos textos originais. Isso só a literatura nos deu.

A metáfora que fica deste exercício é a seguinte: usar a IA sem validação científica é como navegar com um mapa que mostra as estradas principais mas omite as curvas perigosas. O mapa não mente — mas também não nos diz tudo o que precisamos de saber.

Esta distinção entre o que a IA faz bem e o que exige supervisão crítica parece-nos ser precisamente a competência que o contexto académico do mestrado nos convida a desenvolver. E foi exatamente isso que esta primeira atividade nos treinou a fazer.


Referências

Oliveira, I., & Pereira, A. (2021). Avaliação digital autêntica: Questões e desafios. RE@D — Revista de Educação a Distância e eLearning, 4(2), 22–40. https://doi.org/10.34627/vol4iss2pp22-40

Swiecki, Z., Khosravi, H., Chen, G., Martinez-Maldonado, R., Lodge, J. M., Milligan, S., Selwyn, N., & Gašević, D. (2022). Assessment in the age of artificial intelligence. Computers and Education: Artificial Intelligence, 3, 100075. https://doi.org/10.1016/j.caeai.2022.100075

Publicado por Raquel Santos

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *