3.º ciclo
3.º ciclo
Objetivos:
Usar uma ferramenta de IA (ou motor de pesquisa com IA) para investigar uma afirmação.
Avaliar criticamente os outputs e confrontá‑los com fontes fiáveis.
Duração: 90-100 minutos (duas aulas).
Materiais: Computadores/tablets (idealmente em pares), projetor, acesso a motor de pesquisa/IA aprovado, folhas de trabalho.
Passo a passo:
Escolher afirmações (10 min.)
O professor apresenta 3–4 afirmações (mistura de verdadeiras, falsas e parcialmente verdadeiras), ligadas, por ex., a ciência ou ambiente:
Exemplos:
“Os humanos usam só 10% do cérebro.”
“Beber água quente cura constipações.”
“Os data centers de IA consomem muita energia.”
Consulta inicial à IA (20–25 min.)
Em pares, os alunos:
Pedem à IA que confirme/negue cada afirmação.
Copiam respostas-chave e anotam se a IA fornece fontes.
Verificação cruzada (25–30 min.)
Usando sites científicos ou institucionais (OMS, universidades, etc.), verificam as informações.
Preenchem uma grelha:
O que disse a IA?
Que fontes consultámos?
A IA errou? Onde?
A resposta foi tendenciosa ou incompleta?
Reflexão ética e ambiental (15–20 min.)
Discutir:
“O que acontece se aceitarmos sempre a resposta da IA sem verificar?”
“Que responsabilidade temos ao partilhar algo gerado por IA?”
“A pesquisa com IA tem um custo energético; vale a pena usá‑la para tudo?”
Competências:
Avaliar criticamente outputs de IA e risco de desinformação;
Compreender impacto ambiental da infraestrutura de IA;
Refletir sobre alinhamento com valores (verdade, responsabilidade).
Objetivos:
Desenvolver a empatia cognitiva ao explorar pontos de vista divergentes sobre o mesmo tema.
Analisar a influência das "Personas" na forma como a informação é apresentada pela IA.
Exercitar a verificação de factos (fact-checking), distinguindo opiniões de dados baseados em evidências.
Duração: 45-50 minutos.
Materiais:
Dispositivos com acesso a um LLM (Gemini, ChatGPT ou Claude).
Ficha de "Mapa de Perspetivas" para registo.
Passo a passo:
1. O ponto de partida (10 min.)
Lançamento do tema: "O impacto das redes sociais na amizade".
Sondagem rápida: O professor pergunta à turma: "As redes sociais aproximam ou afastam as pessoas?". Os alunos votam levantando a mão.
Contextualização: Explique que a IA pode ajudar-nos a ver os "ângulos mortos" das nossas opiniões.
2. Geração de perspetivas e personas (15 min.)
Fase 1 (O básico): Os alunos pedem à IA: "Lista 3 argumentos a favor e 3 contra a ideia de que as redes sociais melhoram as amizades."
Fase 2 (As personas): Agora, os alunos devem "vestir" a IA com roupas diferentes para ver como o discurso muda:
Prompt A: "Assume a persona de um Engenheiro de Software que trabalha numa rede social e defende o seu impacto positivo."
Prompt B: "Assume a persona de um Especialista em Ética Digital que estuda os riscos da dependência tecnológica."
Registo: Os alunos anotam as diferenças de vocabulário e o foco de cada "pessoa".
3. Análise de Contrapontos e Verificação (15 min.)
O filtro crítico: Os grupos escolhem o argumento mais "convincente" de cada persona.
Investigação: Devem usar um motor de busca para tentar encontrar um estudo ou notícia real que confirme o que a IA disse.
Exemplo: Se a IA disse que "as redes sociais aumentam a dopamina", os alunos devem verificar o que a ciência diz sobre isso.
4. Conclusão e debate (10 min.)
Assembleia: "Alguma persona disse algo que vos fez mudar de ideia ou pensar em algo que não tinham considerado?"
Reflexão sobre a IA: "A IA é neutra nestes debates ou ela limita-se a repetir o que os humanos escreveram na internet?"
Competências:
Empatia: Capacidade de compreender e articular argumentos com os quais não se concorda inicialmente.
Análise de contrapontos: Reconhecer que temas complexos não têm respostas simples de "sim" ou "não".
Verificação de fontes: Desenvolver o hábito de não aceitar a inteligência artificial como uma "fonte da verdade" absoluta, mas como um ponto de partida para a pesquisa.
Os alunos usam ChatGPT ou outro chatbot avançado (em computadores ou smartphones) para pesquisar informações sobre um tópico de estudo (história, ciências, etc.) e depois avaliam criticamente as respostas.
Objetivos:
Aprender a usar IA para auxiliar na aprendizagem;
Desenvolver habilidades de busca e avaliação de informações;
Compreender os limites das IA.
Duração: 45-50 minutos.
Materiais: Dispositivos com acesso à internet (computadores ou smartphones), tópico de pesquisa definido, anotação dos resultados.
Passo a passo:
Explicar que ferramentas como ChatGPT usam IA para gerar respostas de linguagem natural. Discutir casos de uso e alertar sobre “alucinações” (respostas falsas). (5 min.)
Alunos em pares escolhem um subtema (ex.: “vida dos dinossauros”, “indicadores climáticos”) e formulam uma pergunta aberta. (10 min.)
Cada par usa o chatbot para obter uma resposta; anotam a resposta e possíveis fontes citadas (se houver). (20 min.)
As duplas apresentam brevemente o que obtiveram. Em plenário, debater: A resposta era correta? Comprovável? O chatbot mencionou fontes? Há algo contraditório no que dizem (pesquisas complementares podem ser feitas na internet)? (10 min.)
Concluir ressaltando a importância de verificar factos e interpretar criticamente as respostas de IA.
Competências:
Literacia de informação (estratégias de busca, verificação de fontes);
Pensamento crítico (questionar a veracidade dos dados);
Comunicação (apresentar resultados);
Responsabilidade digital (uso ético de IA).
Esta atividade foca-se no reconhecimento da IA em sistemas de recomendação e na avaliação crítica de resultados face ao risco de desinformação e viés.
Objetivos:
Analisar como os sistemas de IA utilizam padrões de dados para oferecer sugestões (vídeos, notícias, produtos).
Avaliar criticamente como estas recomendações podem limitar perspetivas e reforçar preconceitos ou desinformação.
Decidir se os resultados apresentados devem ser aceites, revistos ou rejeitados.
Duração: 90-100 minutos (duas aulas).
Materiais: Exemplos simulados de "feeds" de redes sociais, acesso a motores de pesquisa, e uma grelha de "Auditoria de Algoritmos".
Passo a passo:
1. Investigação de padrões (20 min.): Os alunos exploram como uma plataforma de vídeo utiliza dados em tempo real para apresentar conteúdos, identificando o propósito do sistema (manter o utilizador ligado).
2. O Teste da Perspetiva (30 min.): Em grupos, os alunos pesquisam um tema controverso (ex: alterações climáticas) em diferentes perfis simulados e comparam os resultados. Devem detetar se o algoritmo está a omitir visões contrárias ou a amplificar desinformação.
3. Matriz de decisão (30 min.): Utilizando factos verificados em fontes fidedignas, os alunos decidem quais as recomendações da IA que devem ser rejeitadas por falta de precisão ou por conterem vieses prejudiciais.
4. Reflexão ética (10 min.): Discussão sobre a responsabilidade das plataformas e dos indivíduos em mitigar os danos de algoritmos enviesados.
Competências:
Pensamento crítico (avaliar exatidão e viés);
Consciência social (reconhecer a influência da IA);
Cidadania digital.
Esta atividade foca-se na compreensão do impacto ambiental da IA e na análise do alinhamento do uso da tecnologia com valores de sustentabilidade.
Objetivos:
Descrever o consumo de energia, água e recursos naturais necessários para manter as infraestruturas de IA (centros de dados).
Debater se o uso da IA em cenários específicos é ambientalmente responsável e ético.
Propor estratégias para um uso mais sustentável das tecnologias digitais.
Duração: 90-100 minutos (duas aulas).
Materiais: Dados sobre o consumo energético de modelos de linguagem (LLM), infográficos sobre centros de dados e o modelo de "Matriz Ética de Stakeholders".
Passo a passo:
1. A anatomia da nuvem (20 min.): O professor apresenta dados sobre a pegada de carbono e o consumo de água para arrefecimento de servidores de IA. Os alunos identificam que a IA não é "imaterial", mas depende de recursos físicos finitos.
2. Debate de proporcionalidade (30 min.): Os alunos analisam diferentes casos de uso (ex: usar IA para gerar uma imagem por diversão vs. usar IA para otimizar a rede elétrica de uma cidade). Devem debater se o benefício compensa o custo ambiental em cada caso.
3. Matriz ética e sustentabilidade (30 min.): Utilizando uma matriz ética, os grupos identificam os intervenientes (stakeholders) afetados (comunidades locais, ambiente, empresas) e avaliam se o uso do sistema respeita a justiça ambiental.
4. Compromisso de sustentabilidade (10 min.): Criação de um guia de boas práticas para a turma sobre quando é ético e necessário recorrer a ferramentas de IA pesadas.
Competências:
Resolução de problemas (avaliar riscos e implicações éticas);
Empatia (ponderar impactos em comunidades);
Consciência de impacto social e ambiental.
Objetivos: Investigar como os sistemas de IA podem replicar e amplificar preconceitos humanos.
Duração: 90-100 minutos (duas aulas).
Materiais: Exemplos de resultados de pesquisa de imagens com termos neutros (ex: "médico", "professor") que mostrem falta de diversidade.
Passo a passo:
Sessão 1: detetives de dados (45-50 min.)
1. O choque de realidade (15 min.)
Inicie a aula projetando ou distribuindo folhas com resultados de pesquisa de imagens de ferramentas de IA (ou motores de busca) para termos como: "Diretor Executivo (CEO)", "Enfermeiro", "Pessoa a limpar a casa" ou "Engenheiro".
Pergunta: "O que é que estas imagens têm em comum? Algum género ou etnia aparece mais do que outros?"
Conceito: Introduza o termo Viés (Bias): uma inclinação ou preconceito a favor ou contra algo, muitas vezes de forma injusta.
2. Investigação quantitativa (30 min.)
Divida a turma em grupos. Cada grupo recebe um dataset (conjunto de 20 a 30 imagens geradas por IA sobre uma profissão ou hobby).
Tarefa: Os alunos devem preencher uma tabela de contagem:
Quantos são homens vs. mulheres?
Qual é a diversidade étnica (escala simples)?
Existem pessoas com deficiência ou de diferentes idades?
Conclusão: Os grupos calculam as percentagens e percebem que a IA tende a criar "estereótipos" (ex: o médico é quase sempre um homem branco, a secretária é quase sempre uma mulher).
Sessão 2: A origem e a solução (45-50 min.)
3. Investigação: De onde vem o erro? (20 min.)
Debate sobre o ciclo de aprendizagem da máquina.
A Fonte: Explique que a IA aprende com a Internet. Se na internet existem mais fotos de homens como CEOs, a IA "pensa" que todos os CEOs são homens.
Amplificação: O perigo é que a IA não só copia, mas amplifica o erro. Se 70% das fotos na web são de homens CEOs, a IA pode acabar por gerar 100% de imagens de homens, apagando as minorias.
4. Proposta de solução: re-treinar o Futuro (20 min.)
Desafie os grupos a criarem um "Plano de Ação para uma IA Justa".
Questões para o plano:
"Como podemos mudar o conjunto de dados (dataset)?" (Ex: incluir fotos de mulheres engenheiras e homens enfermeiros).
"Quem deve criar estas regras?" (Equipas diversas de programadores).
"Como podemos avisar o utilizador que a imagem pode ter viés?"
5. Conclusão e reflexão ética (10 min.)
Termine com uma reflexão sobre a responsabilidade humana: "A IA não tem preconceitos por vontade própria; ela reflete os nossos. Como podemos ser melhores cidadãos digitais para que a internet do futuro seja mais justa?"
Competências:
Literacia de dados: Capacidade de ler e interpretar estatísticas de representatividade.
Pensamento crítico: Questionar a "verdade" apresentada pela tecnologia.
Consciência social: Identificar estereótipos de género e raça na tecnologia.
Ética em IA: Compreender que a justiça algorítmica é uma escolha humana.
Objetivos: Desenvolver a capacidade de detetar conteúdos gerados por IA e avaliar a sua credibilidade perante o risco de desinformação.
Duração: 90-100 minutos (duas aulas).
Materiais: Exemplos de textos e imagens (reais vs. gerados por IA), acesso à Internet.
Passo a passo:
Sessão 1: O teste do olhar e da lógica (45-50 min.)
1. O jogo "IA ou Real?" (20 min.)
Inicie com um desafio rápido projetado no ecrã. Apresente 3 pares de conteúdos (Imagem + Manchete):
Par A: Uma fotografia de um evento histórico real vs. uma imagem gerada por IA (ex: "O Papa de casaco de penas").
Par B: Uma notícia escrita por um jornalista vs. um texto gerado por IA sobre um facto inventado (ex: "Cientistas descobrem cidade de ouro na Lua").
Tarefa: Os alunos votam individualmente. Depois, revele a verdade e discuta os sinais visuais ou lógicos que os enganaram.
2. Anatomia do texto sintético (25 min.)
Explique o conceito de Alucinação de IA. Os modelos de linguagem (como ChatGPT) não verificam factos; eles preveem a próxima palavra.
Análise de erro: Entregue um texto gerado por IA que contenha erros factuais subtis (ex: misturar datas de inventores ou citar livros que não existem).
O que procurar: Tom demasiado perfeito ou robótico, falta de citações de fontes reais, repetições desnecessárias ou afirmações bizarras apresentadas como factos.
Sessão 2: Verificação e combate (45-50 min.)
3. Técnica de leitura lateral (25 min.)
Ensine a competência mais importante da literacia mediática moderna: não ler "para baixo" (no site), mas "para os lados" (em novas abas).
Atividade de investigação: Os alunos recebem uma "notícia bombástica" suspeita.
Passos da investigação:
Abrir 3 novas abas no browser.
Procurar o nome da fonte original (Existe? É credível?).
Usar a Pesquisa Inversa de Imagens (Google Lens) para ver se a foto já foi desmentida ou se é sintética.
Procurar se outros órgãos de comunicação social confirmam a história.
4. O guia de "Sinais de Alerta" (20 min.)
Em grupos, os alunos consolidam o conhecimento criando um infográfico ou lista para a escola.
Sugestão de Itens para o Guia:
A imagem é perfeita demais? (Luzes estranhas, mãos com defeitos, texturas de pele "plásticas").
A fonte é desconhecida? (Sites com nomes estranhos como "https://www.google.com/search?q=news-total-verdade.com").
O texto apela à emoção extrema? (Títulos que causam medo ou raiva imediata).
Ninguém mais está a noticiar? (Se é um evento mundial e não está nos jornais oficiais, é provável que seja falso).
5. Conclusão (5 min)
Reflexão final: "Na dúvida, não partilhes." O papel do detetive digital é parar a cadeia de desinformação.
Competências:
Não aceitar informação à primeira vista.
Literacia mediática: Compreender o ecossistema de informação digital.
Resiliência à desinformação: Capacidade de usar ferramentas técnicas para validar factos.
Objetivos:
Compreender que o Credit Score é uma pontuação baseada em comportamentos passados.
Identificar como variáveis não financeiras (ex: código postal) podem influenciar a pontuação.
Discutir o conceito de "ciclo vicioso" na economia.
Duração: 90-100 minutos (duas aulas).
Materiais: Fichas de "Perfil de Cliente", calculadoras, cartões de "Variáveis Ocultas".
Passo a passo:
O Jogo das Pontuações (25 min.): Divida a turma em grupos (bancos). Cada grupo recebe 4 perfis de clientes (ex: um jovem estudante, um trabalhador precário, um empresário, etc.). Eles devem atribuir pontos (0 a 100) baseados apenas em: Salário, Dívidas e Idade.
A introdução do viés (20 min.): O professor introduz variáveis que a IA muitas vezes usa (Big Data): "Quem vive no bairro X perde 10 pontos"; "Quem já teve o telemóvel cortado perde 15 pontos".
Análise de resultado (25 min.): Os alunos recalculam. Frequentemente, perfis com potencial mas pouca história bancária são rejeitados. O professor pergunta: "Se o banco nunca lhes empresta dinheiro, como é que eles podem provar que são bons pagadores no futuro?"
Debate (20 min): É justo usar a morada ou o tipo de profissão para decidir o futuro financeiro de alguém?
Competências:
Decomposição de problemas;
Identificação de viés;
Literacia financeira básica.
Objetivos:
Compreender o conceito de feedback loop (ciclo de retroalimentação) em sistemas de aprendizagem adaptativa.
Identificar os metadados que a IA recolhe (tempo de resposta, padrões de erro, frequência de cliques).
Simular a lógica de uma árvore de decisão para personalização do ensino.
Avaliar criticamente a diferença entre "aprender profundamente" e "progredir no sistema".
Duração: 90-100 minutos (duas aulas).
Materiais:
Acesso a uma plataforma adaptativa (Khan Academy, Duolingo, ou software escolar).
Cartas de Variáveis: Pequenos cartões com dados (ex: "Acertou à primeira", "Demorou 2 minutos", "Pediu pista").
Papel de cenário ou cartolinas para o fluxograma.
Passo a passo:
1. Exploração direta: o aluno como objeto de dados (30 min.)
A Missão: Os alunos entram na plataforma e resolvem uma série de exercícios. No entanto, o foco não é a nota, mas o comportamento do software.
O Diário de Bordo: Devem preencher uma tabela de observação:
Cenário A: Respondi rápido e acertei. ➡️ O que aconteceu a seguir?
Cenário B: Errei propositadamente 3 vezes. ➡️ A plataforma mudou o nível? Surgiu um vídeo?
Cenário C: Demorei 5 minutos a ler a pergunta. ➡️ O sistema considerou que tive dificuldade?
2. Engenharia reversa humana: o algoritmo de papel (40 min.)
O jogo de papéis: Em grupos, um aluno é o Utilizador e os outros são o Algoritmo.
A construção: O grupo deve desenhar um fluxograma de decisão para um tema específico (ex: Tabuada do 7).
Regras Lógicas: Devem usar as "Cartas de Variáveis".
Exemplo: SE (Utilizador erra 2x) ENTÃO (Mostrar dica visual).
Exemplo: SE (Utilizador resolve em <5 segundos) ENTÃO (Saltar para nível Difícil).
Teste de stress: O Utilizador tenta "enganar" o algoritmo de papel para ver se as regras criadas são sólidas.
3. Reflexão crítica: A Máquina vs. O Professor (20 min.)
Debate: "O algoritmo ajuda-me a aprender ou apenas me dá o caminho mais curto?".
Questões-guia:
"A IA sabe se eu estou distraído ou se apenas não percebi a matéria?"
"Quais são as vantagens de um robô tutor em relação a um professor humano? E as desvantagens?" (foco em empatia vs. velocidade).
4. Conclusão (10 min.)
Os alunos listam 3 dados que não sabiam que as plataformas recolhiam (ex: o tempo que o rato fica parado).
Competências:
Decomposição de problemas: Quebrar o processo de ensino em pequenas regras lógicas e variáveis quantificáveis.
Análise crítica de sistemas: Perceber que a IA não é infalível e que as suas decisões baseiam-se apenas em dados estatísticos.
Literacia de dados: Compreender como o comportamento do utilizador se transforma em "comida" para o algoritmo.
Objetivos:
Desenvolver um ceticismo saudável perante as respostas geradas por IA.
Dominar a técnica de triangulação de fontes para validação de informação.
Identificar "alucinações" (erros factuais apresentados como verdades) em modelos de linguagem.
Compreender a importância do rigor histórico na era digital.
Duração: 90-100 minutos (duas aulas).
Materiais:
Acesso a um LLM (Gemini, ChatGPT ou Claude).
Manuais escolares de História e acesso a enciclopédias fidedignas (Infopédia, Britannica, RTP Ensina).
Grelha de Auditoria: "O Semáforo da Verdade".
Passo a passo:
1. O Desafio: A Armadilha da IA (15 min.)
Ação: Os alunos escolhem um evento (ex: 25 de Abril de 1974) e inserem um prompt propositadamente vago: "Faz um resumo detalhado do 25 de Abril, incluindo datas, nomes de capitães e locais específicos."
Observação: O professor avisa: "A IA escreve muito bem, mas não tem consciência do que é verdade. Ela apenas prevê a próxima palavra."
2. O fact-check: triangulação em ação (45 min.)
A técnica: O professor introduz o conceito de Triangulação. Para uma data ser considerada "facto", deve ser confirmada pela IA + Manual Escolar + Enciclopédia Fidedigna.
Trabalho de campo: Os alunos utilizam a "caneta vermelha" para isolar cada facto:
Exemplo: "A revolução começou às 22h55 com a canção 'E depois do adeus'." ➡️ Verificar no manual.
Exemplo: "Salgueiro Maia dirigiu-se ao Largo do Carmo." ➡️ Verificar na Infopédia.
3. A auditoria: o semáforo da verdade (30 min.)
Os alunos preenchem a Grelha de Auditoria classificando os erros:
Afirmação da IA Fonte de confirmação Classificação
"A canção foi tocada na rádio X" Manual Escolar (pág. 120) ✅ Verdade
"Houve 500 mortos no Largo" RTP Ensina (diz 4 mortos) ❌ Alucinação
"A revolução acabou logo de manhã". Enciclopédia (foi ao longo do dia) ⚠️ Imprecisa
4. O contra-ataque: o prompt de rigor (10 min)
Tarefa Final: Os alunos reescrevem o comando inicial para forçar a IA a ser mais precisa.
Exemplo: "Com base apenas em factos históricos aceites e citando fontes oficiais portuguesas, resume a ação de Salgueiro Maia no 25 de Abril. Se não tiveres a certeza de um detalhe, diz que não sabes."
Competências:
Literacia da informação: Saber onde e como procurar provas para validar uma afirmação digital.
Pensamento crítico: Não aceitar a autoridade da máquina sem verificação independente.
Rigor académico: Aprender que a construção da história exige provas e cruzamento de dados.
Objetivos:
Compreender como o algoritmo prioriza o engagement (cliques/partilhas) em vez da verdade.
Identificar sinais de desinformação em notícias de saúde (ex: "curas milagrosas").
Debater a responsabilidade individual na partilha de conteúdos.
Duração: 90-100 minutos (duas aulas).
Materiais: Cartões com exemplos de publicações (reais e falsas), papel de cenário, post-its.
Passo a passo:
A Simulação (20 min.): Divida a turma em grupos. Cada grupo é um "Algoritmo de Rede Social". Eles recebem 5 notícias sobre um tema de saúde (ex: vacinas ou dietas). O objetivo deles é escolher apenas 2 para mostrar a mais utilizadores. A regra é: "Escolham as que vão gerar mais comentários e reações (mesmo que pareçam estranhas)".
A Revelação (20 min.): O professor revela quais notícias eram factuais e quais eram falsas. Geralmente, os grupos escolhem as falsas porque são mais "bombásticas".
Análise de Impacto (25 min.): No papel de cenário, os alunos desenham o "Caminho do Vírus da Desinformação": Post Falso -> Algoritmo recomenda porque tem cliques -> Pessoa acredita -> Pessoa não vai ao médico.
O Código de Conduta (25 min.): Os alunos criam um "Manual do Utilizador Responsável" com 3 regras para antes de clicar em "Partilhar".
Competências:
Avaliação crítica de outputs;
Análise do impacto social da IA;
Literacia da saúde.
Objetivos:
Compreender como o reconhecimento facial depende de padrões aprendidos com fotos.
Identificar falhas num sistema de IA quando os dados de treino não representam a diversidade humana.
Propor formas de tornar a recolha de dados mais equilibrada.
Duração: 90-100 minutos (duas aulas).
Materiais: Cartões com fotografias de pessoas de diferentes etnias, idades e géneros; acesso ao site Teachable Machine (opcional).
Passo a passo:
O treino viciado (20 min.): O professor simula o treino de uma IA usando apenas fotos de pessoas com óculos para a categoria "Humano". Fotos de pessoas sem óculos são colocadas numa categoria "Desconhecido".
O teste de stress (20 min.): Mostre fotos de alunos da turma sem óculos. Pergunte: "Porque é que o sistema falhou?". Leve os alunos a concluir que a IA nunca "viu" humanos sem óculos no treino.
Investigação de dados (25 min.): Divida a turma em grupos. Cada grupo recebe um "lote de dados" (fotos) muito desequilibrado (ex: 90% homens, 10% mulheres). Eles devem listar quem será prejudicado por este sistema se ele for usado para abrir uma porta automática.
A solução (25 min.): Cada grupo deve criar um "Plano de Captura de Dados": onde iriam buscar novas fotos para garantir que a IA reconheça toda a gente na escola?
Competências:
Curar e rotular dados;
Identificar viés;
Propor soluções comunitárias éticas.
Objetivos:
Utilizar a IA para melhorar a gramática e a fluidez de uma narrativa sem perder a essência pessoal.
Identificar sugestões da IA que "padronizam" excessivamente o texto (tornando-o demasiado formal ou robótico).
Aprender a aceitar, rejeitar ou adaptar sugestões através de um processo iterativo.
Duração: 90-100 minutos (duas aulas).
Materiais: Computadores com acesso a um assistente de escrita (Gemini, ChatGPT ou Grammarly), rascunho de uma narrativa pessoal curta (escrita previamente).
Passo a passo:
O rascunho original (15 min.): Os alunos escrevem (ou trazem) um parágrafo sobre uma memória de infância marcante, focando-se nas suas próprias palavras e gírias.
A revisão da IA (20 min.): Introduzem o texto na IA com o comando: "Revê este texto para que fique mais profissional e sem erros".
Análise comparativa (30 min.): O aluno deve colocar o texto original e o da IA lado a lado.
Pergunta 1: "A IA mudou alguma palavra que era importante para o sentimento da história?".
Pergunta 2: "A história ainda parece ter sido escrita por ti ou parece um manual de instruções?".
A versão híbrida (25 min.): O aluno cria a versão final, "pescando" as correções gramaticais da IA, mas devolvendo as suas expressões originais onde a IA foi "fria" ou genérica.
Competências:
Refinar resultados através de iteração;
Considerar a autenticidade;
Evitar o antropomorfismo ao tratar a IA como uma ferramenta de sugestão e não como um autor.
Objetivos:
Quantificar o consumo energético de uma consulta simples à IA comparada com uma pesquisa tradicional.
Compreender o conceito de "Pegada de Água" e "Pegada de Carbono" dos centros de dados.
Avaliar se tarefas triviais justificam o gasto energético.
Duração: 90-100 minutos (duas aulas).
Materiais: Cartões de dados de consumo (ex: "1 prompt = 1 lâmpada acesa por 20 min"), calculadoras, papel de cenário.
Passo a passo:
1. A comparação visual: o choque dos dados (20 min.)
O facto: O professor explica que gerar uma resposta de IA não é apenas "pesquisar", é "criar" do zero, o que exige chips (GPU) a trabalhar em esforço máximo.
A analogia: Uma pesquisa no Google é como acender uma lanterna LED; um prompt na IA é como ligar um projetor de estádio por alguns segundos.
2. Cálculo da turma: O Efeito de Escala (30 min.)
Desafio matemático: Os alunos devem calcular o impacto de uma "escola inteligente".
Cálculo: 20 alunos × 5 prompts/dia × 22 dias úteis = 2200 prompts/mês.
Conversão: Se 1 prompt ≈ 3Wh, então 2200 prompts = 6,6 kWh.
Materialização: "6,6 kWh equivalem a quantas horas de uma consola de jogos ligada ou quantos banhos quentes?". Esta conversão ajuda a tornar o dado abstrato em algo tangível.
3. Mapa de impacto: do lítio ao lixo (20 min.)
Ciclo de vida: Em grupos, os alunos desenham o trajeto físico da IA:
Mineração: Extração de lítio e cobalto (África e América do Sul).
Fabrico: Produção de chips em fábricas de alta precisão.
Operação: Centros de dados que consomem água potável para não sobreaquecerem.
Descarte: Onde vai parar o hardware antigo (lixo eletrónico).
4. Veredito ético: prioritário vs. supérfluo (30 min.)
O debate: O professor apresenta uma lista de tarefas e a turma deve votar se o "gasto de carbono" vale a pena.
Tarefa 1: Resumir um livro para um teste de amanhã porque o aluno teve preguiça de ler.
Tarefa 2: Analisar dados de satélite para prever incêndios florestais.
Tarefa 3: Gerar uma imagem de um "pinguim de óculos escuros" para um meme.
O manifesto: Os alunos criam um cartaz com o título: "Usa a IA com Cabeça: Pensa Antes de Clicar".
Competências:
Interagir com a IA (impacto ambiental): Reconhecer que cada interação digital tem uma consequência física no planeta.
Pensamento crítico: Desenvolver a capacidade de decidir quando a automação é necessária e quando é um desperdício.
Literacia de dados: Interpretar, calcular e converter unidades de energia e recursos naturais para contextos do dia a dia.