Ensino Secundário
Ensino Secundário
Objetivos:
Analisar uma profissão (médico, jornalista, advogado, professor, engenheiro, etc.) e distribuir tarefas entre IA e humano.
Criar um código de conduta para uso de IA na escola/disciplina.
Duração: 90-100 minutos (2 aulas).
Materiais: Folhas A3, acesso à internet para breve pesquisa, projetor.
Passo a passo:
Escolher profissão e listar tarefas (20–25 min.)
Em grupos, escolher uma profissão e listar 10–15 tarefas típicas (recolher informação, sintetizar relatórios, decidir diagnósticos, comunicar más notícias, etc.).
Distribuir tarefas IA vs humano (30–40 min.)
Para cada tarefa, discutir:
“IA pode ajudar?”
“IA pode fazer sozinha?”
“Deve ser um humano?”
Produzir um mapa visual (por ex., três colunas ou um gráfico) com justificação sucinta.
Transferir raciocínio para contexto escolar (30–40 min.)
Perguntar: “Se encararmos ‘aluno’ como profissão, que tarefas podemos/deveríamos delegar à IA?” (resumos, tradução, exercícios, planeamento, reflexão).
Em plenário, recolher ideias para um código de conduta de IA na escola:
Transparência (sempre declarar uso de IA).
Limites (não usar IA para escrever trabalhos avaliados sem indicação).
Verificação de factos.
Respeito pela privacidade e direitos de autor.
Competências:
Decompor problemas complexos (uma profissão) e distribuir tarefas IA/humano.
Desenvolver diretrizes de uso responsável e honestidade académica.
Simulação de um debate jurídico sobre o uso de obras de arte para treino de modelos.
Objetivos:
Analisar os conflitos éticos e legais entre o treino de modelos de IA e os direitos de autor.
Dominar as normas técnicas de citação (APA/MLA) aplicadas a conteúdos gerados ou auxiliados por IA.
Desenvolver uma postura de transparência e integridade académica (honestidade intelectual).
Exercitar a argumentação jurídica e o pensamento crítico sobre propriedade intelectual.
Duração: 90-100 minutos (duas aulas)
Materiais:
Resumos de casos reais (ex: Andersen v. Stability AI ou The New York Times vs. OpenAI).
Guia de normas de citação APA (7.ª ed.) e MLA (9.ª ed.).
Template de "Declaração de Uso de IA" (Statement of AI Use)
Passo a passo:
1. Investigação: os casos de estudo (25 min.)
Trabalho de campo: Divida a turma em grupos. Cada grupo investiga um processo judicial recente entre criadores (artistas, escritores ou jornais) e empresas de IA.
Foco: Devem identificar o argumento do artista (ex: "Uso não autorizado do meu estilo") e o argumento da empresa (ex: "Uso razoável/Fair Use para aprendizagem").
2. Workshop de citação: IA no trabalho académico (25 min.)
A IA não é autor: Explique que, segundo as normas internacionais, a IA não pode ser listada como autor (pois não tem responsabilidade legal), mas deve ser citada como software/ferramenta.
Prática: Os alunos exercitam a citação de um chat:
Exemplo APA: OpenAI. (2024). ChatGPT (versão de 14 de março) [Grande modelo de linguagem].
Normas MLA: Treinar a inclusão do prompt no corpo do trabalho para garantir a reprodutibilidade.
3. Simulação: o debate jurídico (30 min.)
Role-play: Um grupo defende os Artistas (Direito à Remuneração/Consentimento) e outro defende as Empresas de IA (Direito à Inovação/Dados Públicos). Um terceiro grupo atua como o Tribunal, decidindo que diretrizes devem ser criadas para equilibrar os dois lados.
4. O compromisso: Declaração de Ética (20 min.)
Ação: Cada aluno redige a sua própria "Declaração de Transparência de IA". Este texto deverá acompanhar todos os seus projetos futuros.
Conteúdo obrigatório: 1. Em que fase usei a IA? (Ideação, correção gramatical, geração de imagem?) 2. Como verifiquei se a informação era verdadeira? 3. Que percentagem do trabalho final é original minha?
Competências:
Honestidade académica: Compromisso com a verdade e com o reconhecimento das fontes.
Argumentação jurídica: Capacidade de defender pontos de vista baseados em princípios legais e éticos.
Ética e cidadania digital: Compreensão do impacto da tecnologia na subsistência dos profissionais criativos.
Literacia de informação: Saber documentar o processo de pesquisa de forma rigorosa e normalizada.
Os alunos analisam um caso real ou hipotético (ex.: uso de reconhecimento facial em aeroportos, curadoria algorítmica de notícias, testes automatizados) e debatem direitos, privacidade e responsabilidade.
Objetivos:
Discutir consequências sociais e éticas do uso de IA;
Praticar argumentação crítica;
Aplicar princípios éticos (transparência, justiça).
Duração: 1 aula (45–50 min).
Materiais: Texto de caso (reportagem ou cenário), listas de perguntas-guia (ex.: Quem é responsável? Que dados são usados? Quais são os riscos?)
Passo a passo:
Dividir a turma em grupos e distribuir diferentes casos (exemplos: algoritmo de seleção de candidatos a emprego, sistemas de reconhecimento facial no campus, IA em diagnósticos médicos). (5 min.)
Cada grupo lê o caso e responde às perguntas: quais benefícios a IA traz? Que riscos éticos surgem (viés, privacidade, erro)? Que salvaguardas deveriam existir? (20 min.)
Apresentam conclusões à turma, destacando dilemas éticos identificados. (10 min.)
Debater como equilibrar inovação e proteção de direitos: lembrar orientações de organismos como a UNESCO que recomendam princípios éticos (humanos no centro, inclusão, sustentabilidade). (10 min.)
Finalizar com lista de “boas práticas” para desenvolvimento/uso de IA na sociedade (transparência de algoritmos, supervisão humana, regulamentação adequada). (5 min.)
Competências:
Cidadania digital avançada (análise de impactos sociais);
Ética digital (princípios de uso responsável);
Debate e argumentação (comunicação oral);
Competência de investigação (levantamento de possíveis consequências legais e sociais).
Esta atividade desafia os alunos a assumirem o papel de consultores que devem integrar a IA numa organização, equilibrando a eficiência tecnológica com o julgamento humano.
Objetivos:
Decompor processos complexos em tarefas específicas, decidindo quais delegar à IA e quais manter sob controlo humano.
Aplicar técnicas avançadas de engenharia de prompts utilizando a fórmula CRAFT.
Avaliar o impacto da automação na integridade profissional e na qualidade dos resultados.
Duração: 90-100 minutos (duas aulas).
Materiais: Cenários de casos de estudo profissionais (ex: marketing de uma marca sustentável), computadores com acesso a um LLM, e a matriz de stakeholders e valores.
Passo a passo:
1. Cenário (20 min.): O grupo recebe um projeto de uma "empresa" que quer usar IA para criar uma campanha de sensibilização ambiental. x
2. Decomposição de tarefas (20 min.): Os alunos listam as etapas necessárias (pesquisa de dados, criação de conteúdos, revisão ética, decisão de orçamento) e utilizam uma matriz para decidir onde a IA é um parceiro útil e onde o julgamento humano é insubstituível por falta de empatia ou contexto.
3. Engenharia de prompts (CRAFT) (20 min.): Para as tarefas delegadas à IA, os alunos devem estruturar comandos seguindo a lógica: Contexto, Requisição, Ações, Formato e Tom (Template).
4. Auditoria de valores (20 min.): Usando uma matriz de ética, os alunos identificam potenciais conflitos de interesses entre a empresa, os utilizadores e o ambiente.
5. Apresentação (25 min.): Defesa da estratégia perante a "administração" (a turma), justificando por que razão certas decisões não foram deixadas ao algoritmo.
Competências:
Gestão responsável da IA;
Pensamento computacional e comunicação estratégica.
Esta atividade foca-se na decomposição de problemas e na decisão de adequação, utilizando a IA para aumentar a produtividade sem sacrificar o pensamento crítico.
Objetivos:
Decompor uma questão de investigação complexa em subtarefas manejáveis.
Avaliar e justificar a atribuição de tarefas entre humanos e máquinas com base nas capacidades de cada um (ex: empatia vs. processamento de dados).
Praticar a supervisão humana ("human-in-the-loop") para validar resultados.
Duração: 90-135 minutos (2 ou 3 aulas)
Materiais: Computadores com acesso a ferramentas de IA (ex: LLM), grelha de "Matriz de Distribuição de Tarefas".
Passo a passo:
Cenário: Os alunos devem investigar uma questão histórica ou sociológica complexa (ex: "O impacto da Revolução Industrial na saúde mental").
1. Decomposição (20 min.): Em grupos, os alunos listam as tarefas necessárias: pesquisar fontes primárias, resumir artigos, avaliar o contexto emocional de diários antigos, detetar vieses em relatos históricos e redigir uma conclusão original.
2. Matriz de decisão (30 min.): Os grupos decidem o que delegar à IA (ex: sumarização de grandes volumes de texto) e o que manter como tarefa humana exclusiva (ex: avaliar nuances contextuais, empatia com as vítimas ou julgamento ético sobre injustiças).
3. Execução e auditoria (40 min.): Os alunos utilizam a IA para as tarefas delegadas, mas devem obrigatoriamente submeter o output a uma "auditoria humana" para detetar possíveis "alucinações" ou simplificações excessivas.
4. Reflexão (20 min.): Discussão sobre como a supervisão humana alterou o resultado final e a importância de ser o "capitão do navio" no processo criativo.
Competências:
Resolução de problemas (determinar quando usar);
Pensamento computacional (decomposição);
Colaboração (humanos e IA).
Esta atividade foca-se no desenvolvimento de diretrizes de uso responsável e na promoção da transparência e honestidade académica.
Objetivos:
Analisar os riscos éticos do uso de IA, como plágio, viés e desinformação.
Desenvolver um código de conduta para o uso de IA na sala de aula que promova a transparência.
Definir normas de citação e atribuição para conteúdos gerados por IA.
Duração: 90-100 minutos (duas aulas).
Materiais: Exemplos de políticas de integridade académica, "Matriz de Ética de Stakeholders".
Passo a passo:
1. Exploração de dilemas (20 min): O professor apresenta casos ambíguos (ex: usar IA para fazer um esboço de um ensaio vs. usar para escrever o ensaio completo). Os alunos debatem quais são legítimos e quais constituem fraude.
2. Mapeamento de stakeholders (20 min): Usando uma matriz, os alunos identificam quem é afetado pelo uso indevido da IA (alunos, professores, autores originais, empresas de IA) e quais os valores em jogo (verdade, esforço, lucro, privacidade).
3. Redação de diretrizes (30 min): Em grupos, os alunos redigem três regras fundamentais para a sua turma, focando-se em: (a) como declarar o uso de IA; (b) tarefas onde a IA é proibida para garantir a aprendizagem; (c) medidas para proteger a privacidade dos dados pessoais.
4. Apresentação e votação (20 min): Os grupos apresentam os seus "Contratos Sociais". A turma vota nas melhores diretrizes para criar um poster de "Uso Responsável" para a sala de aula.
Competências:
Autonomia e agência (tomar decisões éticas);
Comunicação (explicar o uso de forma transparente);
Ética e impacto.
Objetivos:
Avaliar criticamente a substituição de processos cognitivos humanos por sistemas de IA.
Justificar a escolha (ou rejeição) de ferramentas de IA com base em taxonomias de aprendizagem (ex: Taxonomia de Bloom).
Desenvolver uma matriz de decisão para o uso profissional e académico da IA.
Duração: 90-100 minutos (2 aulas).
Materiais: Diagrama da Taxonomia de Bloom, matrizes de decisão em papel ou digital.
Passo a passo:
Enquadramento Teórico (20 min.): O professor apresenta a Taxonomia de Bloom. Explica que a IA é excelente nos níveis de "Recordar" e "Compreender", mas que o ensino secundário exige "Analisar", "Avaliar" e "Criar".
Laboratório de Auditoria (40 min.): Os alunos recebem um projeto complexo (ex: "Elaborar um ensaio filosófico sobre Ética"). Devem decompor o projeto em etapas e decidir, para cada uma, se a IA deve ser Proibida, Assistente ou Principal, justificando com base no objetivo de aprendizagem.
Simulação de Consequências (25 min.): "Se usares a IA para analisar os dados deste projeto de Biologia, que competência deixas de ter para o teu futuro curso superior?". Os alunos devem debater o conceito de "atrofia de competências".
Criação da Matriz de Decisão (25 min.): Cada grupo desenha um fluxograma de decisão que qualquer aluno poderia usar para decidir se deve ou não abrir o ChatGPT perante um novo trabalho.
Gerir a IA: Capacidade de selecionar e utilizar ferramentas de IA de forma produtiva, ética e autónoma.
Pensamento crítico e criativo: Analisar processos de pensamento e avaliar o impacto da tecnologia na autonomia pessoal.
Agência humana: Reconhecer que o controlo da aprendizagem deve permanecer no indivíduo, usando a tecnologia como extensão e não como substituto.
Literacia digital: Compreender as limitações funcionais e os riscos de dependência tecnológica.
Objetivos:
Analisar criticamente a forma como a IA sintetiza historiografias complexas.
Identificar vieses algorítmicos e eurocentrismo nos resumos históricos.
Produzir uma síntese original que integre o contexto histórico e a crítica às fontes.
Duração: 90-100 minutos (2 aulas).
Materiais: Acesso a bibliotecas digitais e IA, matriz de análise crítica.
Passo a passo:
A questão histórica (20 min.): O professor lança um tema complexo (ex: "O impacto da Revolução Industrial: Progresso ou Exploração Sistémica?").
Sintese multidimensional (30 min.): Os alunos pedem à IA para resumir dois comentários de historiadores com visões opostas (ex: um focado na economia e outro nas condições sociais). Prompt: "Sintetiza as teses de X e Y, destacando as evidências que cada um utiliza."
Análise de contexto e viés (30 min.): Os alunos devem investigar: "A IA omitiu o contexto político dos historiadores? Ela tendeu para uma narrativa de 'progresso' tecnocrata?". Devem usar a técnica de leitura lateral (verificar noutras fontes o que a IA ignorou).
Debate e reinterpretação (30 min.): Debate em sala sobre como a IA "achata" a complexidade histórica. Os alunos finalizam com uma "Nota de Historiador", integrando a síntese da IA mas com uma camada crítica de julgamento humano sobre os recursos utilizados.
Competências:
Gerir a IA: Avaliar a neutralidade e a profundidade dos sistemas de IA em temas humanísticos.
Investigação e literacia de dados: Cruzar informação sintética com evidência histórica documental.
Ética e cidadania: Compreender como a tecnologia pode perpetuar visões históricas dominantes se não for questionada.
Objetivos:
Desenvolver prompts complexos que incluam restrições lógicas e estilos de argumentação específicos (ex: Socrático).
Avaliar a eficácia da IA como ferramenta de suporte ao estudo autónomo e preparação para debates reais.
Analisar criticamente os limites da simulação de IA (falta de convicção real e viés).
Duração: 90-100 minutos (2 aulas).
Materiais: Framework de Prompting (Contexto, Tarefa, Instruções, Restrições, Formato de Saída).
Passo a passo:
Briefing técnico (20 min.): O professor explica como as restrições (ex: "Não uses estatísticas falsas", "Cita filósofos clássicos") mudam o comportamento da IA.
Construção do Adversário (30 min.): Os alunos criam um prompt de "Adversário Sofisticado".
Exemplo: "Assume o papel de um cético climático/economista liberal/filósofo existencialista. O teu objetivo é encontrar falácias lógicas nos meus argumentos. Se eu cometer um erro de raciocínio, para o debate e explica-me o erro antes de continuar."
Sessão de sparring (30 min.): Debate intensivo. Os alunos devem forçar a IA a manter a coerência lógica.
Meta-avaliação (30 min.): Discussão em grupo:
A IA ajudou a antecipar perspetivas reais ou foi apenas um "eco" das vossas ideias?
Como é que esta ferramenta mudou a vossa forma de estudar o tema?
O teste de stress: O que acontece quando pedimos à IA para ser "excessivamente agressiva" ou "demasiado concordante"?
Competências:
Gerir a IA: Avaliação sofisticada da utilidade da IA face a objetivos de aprendizagem complexos.
Pensamento computacional: Uso de lógica condicional e restrições na formulação de instruções (prompting).
Agência humana: Reconhecimento da IA como um simulador controlado pelo utilizador, mantendo o espírito crítico sobre a "verdade" da máquina.
Objetivos:
Utilizar a IA para realizar iterações complexas sobre um conceito de design ou projeto social.
Analisar o impacto das restrições (constraints) na qualidade da variação gerada.
Defender a racionalidade da escolha final através de uma análise comparativa.
Duração: 90-100 minutos (2 aulas).
Materiais: Matriz de decisão, acesso a IA generativa (texto e/ou imagem), software de apresentação.
Passo a passo:
Briefing de projeto (20 min.): Os grupos definem um conceito de intervenção social (ex: "Campanha para reduzir o desperdício alimentar na cantina").
Iteração dirigida (30 min.): Os alunos usam a IA para gerar variações sob diferentes prismas.
Prompt 1: "Gera uma abordagem focada em gamificação."
Prompt 2: "Gera uma abordagem focada em economia circular e custos zero."
Matriz de avaliação (30 min.): Utilizando uma matriz de decisão, os alunos pontuam as variações da IA e a sua ideia original em critérios como: Impacto, Custo, Facilidade de Implementação e Ética.
Refinação e pitch (30 min.): O grupo funde as melhores componentes num projeto final. No pitch de apresentação, devem incluir uma secção de "Racional": "A IA sugeriu X, mas nós adaptámos para Y porque o contexto da nossa escola exige Z."
Competências:
Gerir a IA: Tomar decisões informadas sobre como e quando a IA contribui para o valor acrescentado do projeto.
Agência humana: Manter o papel de "Diretor Criativo", garantindo que a IA serve o propósito humano e não o contrário.
Pensamento sistémico: Compreender como diferentes variáveis (variações) afetam o resultado final de um sistema complexo.
Objetivos:
Capacitar pares sobre o funcionamento técnico básico da IA para desmistificar o "mistério".
Debater a Propriedade Intelectual e o impacto da IA no mercado de trabalho criativo.
Estabelecer diretrizes de pensamento crítico para o uso de sistemas generativos.
Duração: 90-100 minutos (2 aulas).
Materiais: Apresentações digitais, exemplos de casos jurídicos reais (artistas vs. IA), matriz de avaliação de ferramentas.
Passo a passo:
Curadoria de ferramentas (25 min.): Os alunos selecionam 3 ferramentas de IA e criam uma "Ficha Técnica" que detalha: O que faz, quais os seus limites éticos e de onde vêm os seus dados (treino).
Painel de debate: propriedade intelectual (35 min.): Os alunos organizam um pequeno debate para os pares. Apresentam o conceito de scraping (extração de dados) e discutem: "É justo usar o estilo de um artista vivo sem pagar?".
Workshop de pensamento crítico (30 min.): Ensinam a técnica de "Auditoria de Prompt" — como questionar os resultados da IA em vez de os aceitar como verdade absoluta.
Exercício: Comparar uma resposta da IA com uma fonte académica fidedigna.
Carta de princípios (20 min.): O grupo de alunos líderes sintetiza as conclusões numa "Carta de Princípios para o uso de IA na Escola", para ser apresentada ao Conselho Pedagógico ou afixada na biblioteca.
Competências:
Gerir a IA: Demonstrar um entendimento profundo sobre as implicações sociais e éticas da tecnologia.
Liderança e autonomia: Assumir o papel de educador entre pares, promovendo a agência humana.
Pensamento crítico e reflexivo: Analisar as tensões entre inovação tecnológica e direitos autorais/ética.