Ensino Secundário
Ensino Secundário
Objetivos:
Investigar o consumo energético e impacto ambiental da IA.
Ponderar quando é justificável recorrer a grandes modelos em termos de custo/benefício.
Duração: 2 aulas + trabalho autónomo.
Materiais: Acesso à internet para pesquisa, calculadora, folhas de trabalho.
Passo a passo:
Introdução (10–15 min.)
Apresentar dados ou artigos sobre energia em centros de dados, treino de modelos de IA e águas de arrefecimento.
Ligar a exemplos do quotidiano (streaming, cloud, IA generativa).
Pesquisa guiada (30–40 min.)
Em grupos, cada um investiga um aspeto:
Consumo energético estimado por grandes modelos;
Uso de água em data centers;
Alternativas (modelos menores, edge computing, otimização).
Preencher uma grelha com fontes, números aproximados e limitações da informação.
Minicálculo de pegada (30–40 min.)
Estimar, com base em dados públicos, o impacto aproximado de um certo número de interações com IA vs, por ex., ver vídeos em streaming durante X horas.
Discutir a incerteza destes números (ordens de grandeza, não valores exatos).
Debate orientado (20–30 min.)
Questões para debate:
“É aceitável usar IA para tudo (ex.: pequenos trabalhos escolares) sabendo este custo?”
“Que políticas deveria ter uma escola/universidade para equilibrar inovação e sustentabilidade?”
Competências:
Compreender impacto ambiental da IA;
Analisar se o uso de IA está alinhado com valores (sustentabilidade, justiça intergeracional).
Para os alunos do secundário, a interação com a IA torna-se uma ferramenta de refinamento intelectual e preparação profissional. Esta atividade foca-se na análise da qualidade e do tom das respostas da IA perante variações contextuais complexas.
Objetivos:
Dominar a técnica de estruturação de prompts (Persona-Contexto-Tarefa) para resultados profissionais.
Detetar nuances de tom e viés retórico em textos gerados por algoritmos.
Desenvolver a voz própria do aluno, aprendendo a editar a IA para evitar a perda de originalidade.
Avaliar a utilidade da IA em diferentes fases do processo de escrita.
Duração: 90-100 minutos (duas aulas).
Materiais:
Acesso a modelos de linguagem (Gemini, Claude ou ChatGPT).
Grelha de Auditoria de Tom (parâmetros: formalidade, empatia, assertividade e viés).
Exemplo de um texto académico real vs. um texto gerado por IA para comparação.
Passo a passo:
1. A framework PCT: persona-contexto-tarefa (20 min.)
Teoria: O professor apresenta a estrutura de um prompt de alto nível. Um prompt sem estrutura gera respostas genéricas; um prompt estruturado gera soluções.
P (Persona): Quem a IA deve ser? (Ex: "Atua como um jornalista de investigação especializado em ambiente").
C (Contexto): Qual é o cenário? (Ex: "Estás a escrever para um público jovem que está cético quanto às promessas políticas").
T (Tarefa e Formato): O que fazer? (Ex: "Resume este relatório em 3 parágrafos, usando um tom crítico mas baseado em dados").
2. Experimentação iterativa: a dança das palavras (30 min.)
Desafio: Os alunos escolhem um tema controverso (ex: "A implementação de portagens em centros urbanos").
Iteração 1: Pedem um texto com um prompt simples.
Iteração 2: Pedem o mesmo texto, mas alterando apenas o Tom (ex: de "Diplomático" para "Provocador").
Iteração 3: Introduzem uma Persona oposta (ex: de "Economista Liberal" para "Ativista de Mobilidade Suave").
Observação: Os alunos devem notar como a IA substitui adjetivos e verbos para se adaptar à "máscara" que lhe foi dada.
3. Auditoria de tom e retórica (30 min.)
Análise crítica: Usando a grelha de auditoria, os alunos analisam as respostas da fase anterior.
Pergunta 1: "A IA usou palavras carregadas de emoção para manipular a opinião?"
Pergunta 2: "A estrutura da frase é demasiado repetitiva ou 'perfeita', revelando o seu rasto artificial?"
Deteção de viés: Os alunos identificam se a IA evitou responder a pontos difíceis ou se favoreceu uma visão maioritária (viés de popularidade).
4. O manifesto da voz original (20 min.)
Ação: Os alunos pegam no melhor resultado da IA e fazem uma edição manual.
Objetivo: Inserir a sua própria "voz" (uma opinião pessoal, uma referência cultural local ou uma dúvida que a IA não expressou).
Conclusão: Cada aluno escreve uma breve reflexão sobre onde a IA foi útil (ex: estrutura) e onde foi prejudicial (ex: falta de nuance emocional).
Competências:
Engenharia de prompts avançada: Capacidade de programar a linguagem para obter respostas altamente específicas.
Pensamento crítico e retórico: Desconstrução de textos para entender como a linguagem é usada para persuadir ou informar.
Autoria e integridade: Reconhecimento da importância da intervenção humana para garantir a originalidade e a ética no trabalho académico.
Alunos experimentam diferentes ferramentas de IA (p. ex. ChatGPT, Gemini, Claude, Perplexity, Copilot, assistentes de voz) em tarefas variadas (gerar código, resumir texto, traduzir) e discutem vantagens, limites e implicações éticas.
Objetivos:
Comparar funcionalidades de diversas IA;
Compreender limitações (como vieses ou falta de contexto), promover reflexão sobre uso responsável.
Duração: 45–50 minutos
Materiais: Dispositivos com acesso a várias IA (web), folha de cálculo para registro de resultados, questões-guia.
Passo a passo:
Em pares, cada grupo recebe uma tarefa (ex.: gerar uma carta de motivação, traduzir um parágrafo complexo, resolver um problema de física). (5 min.)
Cada dupla usa duas IA distintas para cumprir a tarefa. Anotam diferenças nas respostas (como estilo, precisão, informações extras). (20 min.)
Grupos trocam as produções e analisam: qual resposta é mais confiável? Há erro ou inconsistência? (15 min.)
Em plenário, debatem: “O que aprendemos sobre pontos fortes e fracos de cada ferramenta? Como lidar com as limitações (por exemplo, verificar erros)?” Lembrar diretrizes: UNESCO ressalta que a IA deve complementar (não substituir) capacidades humanas. Discutir implicações de depender da IA (p. ex. no aprendizagem). (10 min.)
Competências:
Autonomia no uso de ferramentas digitais (comparar sistemas);
Literacia digital (criticar resultados de IA);
Comunicação (discussão oral);
Capacidade reflexiva e ética (entender que IA não deve substituir o julgamento humano).
Esta atividade foca-se na avaliação crítica de outputs e no risco de desinformação e viés.
Objetivos:
Avaliar criticamente a veracidade e o viés de conteúdos gerados ou recomendados por IA.
Aplicar técnicas de verificação cruzada e "leitura lateral" para validar informações.
Debater a responsabilidade de indivíduos e plataformas na mitigação de danos sociais.
Duração: 90-100 minutos (duas aulas)
Materiais: Exemplos de notícias virais ou posts de redes sociais (incluindo potenciais deepfakes), computadores com acesso à internet, grelha de análise de credibilidade.
Passo a passo:
1. Apresentação do caso (15 min): O professor apresenta um conteúdo sintético ou uma recomendação algorítmica controversa (ex: sobre saúde pública ou eleições).
2. Investigação forense (30 min): Em grupos, os alunos utilizam motores de pesquisa e ferramentas de verificação para identificar o propósito do conteúdo, o seu autor e se existem provas que o sustentem noutras fontes credíveis.
3. Matriz de decisão (20 min): Os alunos preenchem uma matriz decidindo se o output da IA deve ser aceite, revisto ou rejeitado, justificando com base no risco de viés e desinformação detetado.
4. Debate de responsabilidade (25 min): Realização de um debate sobre se a responsabilidade de travar esta desinformação é do utilizador (ao não partilhar) ou da plataforma (ao não recomendar).
5. Reflexão final (10 min): Escrita de uma breve regra pessoal para a partilha responsável de conteúdos influenciados por IA.
Competências:
Pensamento crítico (avaliar exatidão e viés);
Consciência social (identificar influência algorítmica)
Literacia da informação.
Esta atividade foca-se em compreender o impacto ambiental e analisar o alinhamento com princípios éticos (privacidade e justiça).
Objetivos:
Descrever o consumo de recursos naturais (energia, água, materiais) necessários para manter infraestruturas de IA.
Analisar o conflito ético entre a eficiência tecnológica e o custo ambiental e social.
Avaliar se o uso de sistemas de vigilância ou recolha de dados respeita a privacidade e a justiça.
Duração: 90-100 minutos (duas aulas).
Materiais: Dados sobre consumo energético de LLMs (Large Language Models), infográficos sobre centros de dados, Matriz Ética de Stakeholders.
Passo a passo:
1. Desmistificação da "Nuvem" (20 min): Investigação orientada sobre o que são centros de dados e por que razão a IA exige tanto poder computacional e arrefecimento.
2. Análise de custo-benefício (25 min): Os alunos comparam cenários (ex: usar IA para otimizar uma rede elétrica vs. gerar milhares de imagens por lazer). Devem debater se, em cada caso, o benefício justifica o impacto ambiental.
3. Auditoria de privacidade e justiça (25 min): Utilizando um caso real (ex: câmaras com IA em espaços públicos), os grupos identificam quem beneficia e quem pode ser prejudicado, avaliando se a solução é proporcional e justa.
4. Manifesto de cidadania digital (20 min): Criação de um compromisso de grupo sobre o uso sustentável e ético da tecnologia na escola, sugerindo estratégias para reduzir a pegada digital.
Competências:
Autonomia e agência (decidir quando e como usar);
Ética e impacto (avaliar benefícios e danos);
Resolução de problemas (ponderar custos ambientais).
Objetivos:
Quantificar o impacto ambiental (consumo de água e energia) da infraestrutura de IA generativa.
Analisar criticamente o dilema entre a inovação tecnológica e a sustentabilidade planetária.
Avaliar a responsabilidade corporativa e individual no uso de modelos de larga escala.
Desenvolver propostas de políticas de uso sustentável.
Duração: 90-100 minutos (duas aulas)
Materiais: Artigos sobre consumo de energia de centros de dados, matriz ética.
Passo a passo:
1. A face oculta da IA (25 min.)
Investigação de dados: Os alunos são divididos em grupos e cada um investiga um indicador:
Energia: Quantos kWh consome o treino de um grande modelo comparado com o consumo de uma casa?
Água: Quantos centilitros de água são necessários para arrefecer os servidores por cada 10-50 perguntas feitas?
Hardware: O ciclo de vida dos chips H100 e o problema do lixo eletrónico.
2. O dilema da proporcionalidade (30 min.)
Debate estruturado: Utilizando os dados recolhidos, a turma discute cenários de uso:
Cenário A: Usar IA para descobrir uma nova cura para o cancro (Alto benefício, alto custo).
Cenário B: Usar IA para gerar centenas de imagens de "gatos espaciais" para entretenimento (Baixo benefício, alto custo).
Pergunta provocadora: "Se cada prompt tem um custo ambiental, devemos pagar uma 'taxa de carbono' por cada pergunta que fazemos ao ChatGPT?"
3. Auditoria de sustentabilidade (20 min.)
Os alunos analisam os compromissos de "Net Zero" das grandes empresas tecnológicas. Devem procurar por greenwashing (quando a empresa parece ecológica mas os dados dizem o contrário).
4. O manifesto escolar (25 min.)
Ação: Criação de um documento coletivo: "Diretrizes para o Uso Ecológico da IA na Nossa Escola".
Exemplo de regra: "Antes de usar a IA para uma tarefa simples que podes fazer sozinho, pensa se o custo planetário justifica a poupança de 5 minutos do teu tempo."
Competências:
Consciência ambiental: Compreender a materialidade da tecnologia e a pegada de carbono do digital.
Julgamento ético e social: Avaliar a justiça distributiva (quem beneficia da IA e quem sofre com os custos ambientais).
Literacia de dados: Interpretar relatórios técnicos e estatísticas de consumo energético.
Cidadania e participação: Propor soluções coletivas para problemas globais.
Objetivos:
Analisar criticamente como os modelos de linguagem tendem para a "média", eliminando nuances de estilo pessoal e cultural.
Debater a ética da coautoria e onde começa o plágio na edição assistida.
Refletir sobre o impacto da IA na identidade do autor.
Duração: 90-150 minutos (2 ou 3 aulas)
Materiais: Computadores, matriz de análise de estilo (critérios: vocabulário, ritmo, emoção, estrutura).
Passo a passo:
Escrita de autor (20 min.): Os alunos escrevem uma narrativa pessoal sobre um dilema ético que viveram.
Edição por estilos (30 min.): Devem pedir à IA para reescrever o texto em três estilos diferentes:
"Reescreve num estilo académico e formal."
"Reescreve num estilo poético e dramático."
"Reescreve como se fosses eu, mas melhor."
Mapeamento da "voz" (30 min.): Usando a matriz de análise, os alunos marcam onde a IA "traiu" a intenção original.
Exemplo: "A IA removeu o sarcasmo porque o considerou 'impróprio' ou 'confuso'".
Debate e reflexão (30 min.): Discussão em grande grupo sobre: "Se a IA melhorar a nossa escrita até ficarmos todos iguais, o que acontece à diversidade de vozes na literatura e na comunicação?".
Competências:
Avaliar a propriedade intelectual e autenticidade;
Utilizar linguagem precisa para descrever o funcionamento do modelo (perceber que a IA apenas prevê a próxima palavra estatisticamente provável).
Objetivos:
Analisar a diferença entre erro técnico e viés sistémico em modelos de Machine Learning.
Avaliar o impacto social de sistemas de reconhecimento facial em contextos de segurança e emprego.
Desenvolver diretrizes técnicas para programadores promoverem a transparência.
Duração: 100-150 minutos (2 ou 3 aulas).
Materiais: Acesso a casos de estudo reais (ex: documentário Coded Bias ou o estudo Gender Shades da Joy Buolamwini); computadores.
Passo a passo:
Análise de caso (30 min.): Apresente os resultados do projeto Gender Shades, que mostrou que IAs de grandes empresas tinham taxas de erro muito maiores em mulheres de pele escura do que em homens de pele clara.
Decomposição do problema (30 min.): Os alunos devem investigar a origem do problema:
Dataset: As bases de dados eram maioritariamente compostas por celebridades ocidentais.
Ambiente: As condições de iluminação no treino favoreciam peles claras.
Debate técnico-ético (25 min.): "Melhorar a base de dados é suficiente ou o reconhecimento facial é inerentemente perigoso para a privacidade?". Discutir se a tecnologia deve ser proibida em certos contextos, independentemente da sua precisão.
Proposta de melhoria (25 min.): Os grupos desenham um "Protocolo de Justiça para Desenvolvedores". Este deve incluir:
Auditorias externas obrigatórias.
Cartões de Dados (Data Cards) que expliquem quem está representado no treino.
Mecanismos de reclamação para utilizadores que sofram discriminação.
Competências:
Comparar abordagens técnicas;
Analisar princípios de privacidade e justiça;
Propor métodos para o bem comum.
Objetivos:
Analisar a distinção entre sistemas baseados em regras (If/Then) e modelos de aprendizagem automática (previsão de dificuldade).
Discutir a ética da recolha de dados de desempenho e o risco de "estagnação" (quando a IA mantém o aluno num nível baixo por segurança).
Duração: 90-100 minutos (duas aulas).
Materiais: Computadores, folhas de cálculo (Excel/Sheets) para simular pequenos conjuntos de dados.
Passo a passo:
Simulação de Dados (45 min.): Os alunos recebem um conjunto de dados fictícios de 20 alunos (tempo gasto vs. resultado). Eles devem tentar encontrar o "ponto de viragem" onde o sistema deve subir o nível de dificuldade, usando conceitos de estatística (média, desvio padrão).
Debate Ético: O "Teto de Vidro" (40 min.): Debate sobre transparência. Se a IA decide que um aluno "não tem perfil" para exercícios avançados com base em dados passados, isso é justo? Como o aluno pode intervir para desafiar o sistema?
Design de Solução (25 min.): Propor uma funcionalidade que permita ao humano "retomar o controlo" do algoritmo (ex: um botão de "Desafio Extra" que ignora a recomendação da IA).
Competências:
Curadoria de dados;
Avaliação de adequação da IA;
Julgamento ético.
Objetivos:
Analisar como o treino da IA (frequentemente baseado em fontes ocidentais) influencia a narrativa histórica.
Identificar omissões éticas ou perspetivas unilaterais em eventos complexos.
Duração: 90-100 minutos (duas aulas).
Materiais: Acesso a arquivos digitais nacionais e internacionais e IA.
Passo a passo:
1. Provocar o viés: o teste da "neutralidade" (20 min.)
O desafio: Os alunos, em grupos, escolhem um tema histórico sensível. Devem fazer perguntas "abertas" à IA.
Exemplo: "Explica os impactos da Guerra Colonial/Guerra de Libertação em Angola."
Exemplo: "Quais foram as causas da partilha de África na Conferência de Berlim?"
Registo: Os alunos copiam a resposta integral e sublinham adjetivos ou expressões que pareçam "suavizar" conflitos ou que adotem uma perspetiva puramente administrativa ou económica.
2. Análise comparativa: o confronto de fontes (50 min.)
Pesquisa em arquivos: Os grupos devem procurar fontes primárias ou textos de historiadores nativos das regiões em questão (ex: perspetivas africanas, brasileiras ou asiáticas).
A auditoria: Utilizando a pergunta guia — "A IA utilizou uma linguagem neutra ou favoreceu uma visão Eurocêntrica?" — os alunos preenchem uma tabela comparativa:
3. Redesign de resposta: a reescrita ética (30 min.)
Tarefa de Edição: Os alunos devem reescrever o texto da IA. Não se trata apenas de corrigir datas, mas de mudar a estrutura da narrativa.
Inclusão de vozes: Devem garantir que a nova resposta apresente a complexidade do evento, citando explicitamente as múltiplas interpretações.
Justificação ética: No final, os alunos redigem uma nota de rodapé explicando: "A IA ignorou o valor ético de X ao focar-se apenas na perspetiva de Y. Corrigimos isto para garantir uma visão multiperspetivada."
Análise de viés: Capacidade de detetar inclinações ideológicas camufladas por uma linguagem formal e educada.
Justiça e consciência global: Reconhecimento da diversidade de experiências históricas e combate à hegemonia cultural.
Literacia de informação: Competência em cruzar dados de modelos generativos com fontes de arquivo fidedignas.
Pensamento crítico: Compreender que a "verdade" da IA é uma média estatística dos dados disponíveis na internet, maioritariamente produzidos no Norte Global.
Objetivos:
Analisar o paradoxo da IA: a tecnologia que pode otimizar redes elétricas mas que gasta recursos massivos para ser treinada.
Investigar estratégias de mitigação (arrefecimento por água, energia renovável, modelos de IA mais pequenos/eficientes).
Debater políticas públicas e responsabilidade corporativa.
Duração: 90-100 minutos (duas aulas).
Materiais: Acesso a relatórios de sustentabilidade de empresas tecnológicas (Google, Microsoft, OpenAI), artigos científicos recentes sobre pegada hídrica da IA.
Passo a passo:
Auditoria de relatórios (30 min.): Os alunos, divididos em "Conselhos de Administração", analisam excertos de relatórios de sustentabilidade de gigantes tecnológicas. Devem identificar: "Onde é que estas empresas dizem que vão poupar energia? Estão a conseguir ou o consumo continua a subir?".
O paradoxo da IA (25 min.): Apresentação do conceito: IA para o Bem Ambiental (ex: IA que gere melhor a energia de uma cidade). Os alunos devem pesar se os ganhos de eficiência prometidos pela IA compensam o custo do seu treino.
Grande debate: "A Moratória Verde" (40 min.):
Grupo A: Defende que o treino de novos modelos gigantes de IA deve ser limitado até que sejam 100% neutros em carbono.
Grupo B: Defende que não podemos parar o progresso, pois a IA será a ferramenta para resolver a crise climática.
Proposta de regulamentação (15 min): Os alunos redigem uma proposta de "Etiqueta de Eficiência Energética" para apps de IA, semelhante à que existe nos eletrodomésticos.
Competências:
Decidir adequação;
Propor soluções éticas;
Análise crítica.
Objetivos:
Analisar o dilema ético entre o modelo de negócio das plataformas e o bem-estar público.
Distinguir desinformação (intencional) de desinformação (acidental).
Propor diretrizes de regulação e transparência para sistemas de IA.
Duração: 90-100 minutos (duas aulas).
Materiais: Artigos sobre o impacto das redes sociais na saúde pública, acesso à internet para pesquisa de políticas de uso (termos e condições).
Passo a passo:
Estudo de caso (20 min.): Apresente um caso real onde um algoritmo de IA amplificou uma teoria da conspiração de saúde. Analise os dados: quantas pessoas foram atingidas? Qual foi a reação da plataforma?
O debate "Quem é culpado?" (40 min.): Divida a turma em três papéis:
As plataformas: Argumentam que são apenas "canais" e que a IA é neutra.
Os utilizadores: Argumentam que são manipulados por algoritmos viciantes.
Os reguladores (Estado): Argumentam que deve haver multas e controlo algorítmico.
Design de solução (30 min.): Os alunos devem desenhar um "Botão de Transparência Algorítmica". Devem descrever como a IA poderia avisar o utilizador: "Este conteúdo está a ser-te mostrado porque o algoritmo detetou que estás vulnerável a este tema".
Manifesto final (20 min.): Redação de um compromisso ético sobre a honestidade académica e digital no uso de ferramentas de IA.
Competências:
Análise de princípios éticos (justiça e privacidade);
Decomposição de problemas complexos;
Desenvolvimento de diretrizes de uso responsável.
Objetivos:
Analisar a função matemática por trás do risco preditivo (ponderação de variáveis).
Investigar o fenómeno do "Redlining Digital" (discriminação algorítmica por localização ou grupo social).
Propor mecanismos de transparência e intervenção humana no crédito.
Duração: 90-100 minutos (duas aulas).
Materiais: Folha de cálculo com simulador de pesos estatísticos, artigos sobre ética em algoritmos financeiros.
Passo a passo:
Simulação de pesos (30 min.): No Excel/Sheets, os alunos criam uma fórmula simples de Credit Score. Devem atribuir pesos (percentagens) a variáveis como: Histórico de crédito (35%), Utilização de crédito (30%), Tempo de histórico (15%).
O problema dos dados históricos (30 min.): O professor apresenta um cenário histórico: "Se um determinado grupo étnico foi impedido de ter contas bancárias no passado, como é que os dados de treino da IA vão tratar esse grupo hoje?". Os alunos percebem que a IA "aprende" o preconceito do passado como se fosse uma verdade estatística.
Auditoria ética (30 min.): Os grupos devem agir como "Auditores de IA". Devem identificar variáveis que parecem neutras mas são "procuradores" (proxies) de discriminação (ex: o nível de escolaridade pode esconder um viés de classe).
Relatório de melhoria (20 min.): Elaboração de uma diretriz: "Como podemos treinar uma IA para ser justa com quem nunca teve crédito?". Devem sugerir a inclusão de dados alternativos (ex: pagamento pontual da renda da casa ou conta da luz).
Competências:
Análise de viés sistémico;
Julgamento ético;
Avaliação de equidade.