Ensino Secundário
Ensino Secundário
Objetivos:
Propor uma solução conceptual de IA para um problema real na escola.
Pensar dados, stakeholders, riscos, critérios de justiça e impacto social em linha com quadros de competências da UNESCO.
Duração: 3–4 aulas + trabalho autónomo.
Materiais: Papel, ferramentas de apresentação, eventualmente quadro digital.
Passo a passo:
Identificação de problemas (20–30 min.)
Brainstorm de desafios na escola: desperdício alimentar na cantina, absentismo, gestão de energia, acessibilidade para alunos com NEE, segurança no caminho casa-escola, etc.
Cada grupo escolhe um problema.
Ideação da solução de IA (1 aula)
Descrever:
Que tipo de IA seria mais adequada (classificação, recomendação, previsão, assistente de apoio)?
Que dados seriam necessários (e.g., consumos de energia, horários, registos anónimos)?
Como seriam recolhidos e anonimizados?
Indicar quem são os utilizadores (alunos, professores, funcionários) e como interagem com o sistema.
Análise crítica de ética e viés (1 aula)
Para cada proposta, responder:
“Quem pode ser prejudicado se o sistema errar?”
“Que grupos podem ficar mal representados nos dados?”
“Como garantir transparência (explicar decisões) e possibilidade de contestação humana?”
Propor medidas de mitigação (revisão humana, auditoria de dados, inclusão de vozes diversas).
Apresentação e feedback (1 aula)
Cada grupo apresenta a sua solução (poster, slides, video curto).
Os colegas avaliam com base em três critérios:
Relevância para o bem comum;
Qualidade do desenho técnico-conceptual;
Profundidade da reflexão ética.
Competências:
Propor soluções de IA para problemas comunitários de forma ética.
Curar/planear dados e refletir sobre representatividade.
Ligar escolhas técnicas a impactos sociais.
Objetivos:
Compreender o impacto da seleção e rotulagem de dados no comportamento da IA.
Identificar problemas de representatividade e viés nos conjuntos de dados.
Relacionar dados, justiça social e decisões algorítmicas.
Duração: 90-100 minutos.
Materiais: Conjunto de dados simplificado (real ou fictício); fichas de análise; computador ou papel A3.
Passo a passo:
Cada grupo recebe um conjunto de dados para “treinar” uma IA (ex.: dados escolares, mobilidade urbana, saúde). (5 min.)
Os alunos analisam: (25 min.)
Que grupos estão representados?
Quem está ausente?
Que categorias foram usadas para rotular os dados?
O professor introduz cenários “e se…”: (25 min.)
E se estes dados forem usados para tomar decisões reais?
Os grupos propõem: (20 min.)
Melhorias no conjunto de dados
Novas categorias ou dados a recolher
Apresentação e debate ético. (15 min.)
Competências:
Literacia de dados;
Análise crítica da representatividade;
Consciência ética e social;
Pensamento sistémico.
Os alunos idealizam um projeto completo de IA aplicado a um problema complexo (ex.: mobilidade urbana, apoio a deficientes, sustentabilidade), incluindo perfil dos utilizadores, dados necessários, tipo de algoritmo e avaliação de resultados.
Objetivos:
Exercitar pensamento de design de sistemas complexos;
Integrar conhecimentos de várias áreas (programação, estatística, línguas) e competência intercultural;
Prever impactos e requisitos éticos de longo prazo.
Duração: 2 aulas ou mais (elaboração detalhada).
Materiais: Ferramentas de apresentação (cartolinas, slides), artigos de apoio sobre IA e sociedade, guias de competências UNESCO para design centrado no usuário.
Passo a passo:
Os alunos formam grupos multidisciplinares e escolhem um desafio amplo (p. ex. “melhorar o transporte público da cidade com IA”). (10 min.)
Realizam pesquisa para definir contexto: quem são os usuários, que dados existem (ex.: horários, localização), quais métricas de sucesso (público satisfeito, menos poluição). (20 min.)
Desenham a arquitetura do sistema: fontes de dados (sensores, apps), tipo de IA (machine learning preditivo, otimização de rotas), fluxo de funcionamento. (20 min.)
Abordam questões de implementação ética: “Como garantimos a privacidade dos passageiros? Como avaliamos vieses (classes sociais, géneros)?”.(20 min.)
Apresentam o projeto em formato de relatório ou apresentação oral, enfatizando a perspectiva humana e ética no design (UNESCO recomenda IA inclusiva e sustentável). (20 min.)
Competências:
Pensamento sistémico e design thinking (projetar IA para cenários reais);
Interdisciplinaridade (aplicar conhecimentos técnicos, científicos e humanísticos);
Consciência crítica e ética (avaliação dos efeitos de longo prazo da IA);
Competências digitais avançadas (planeamento de sistemas de IA).
Esta atividade desafia os alunos a compreender a transição da "inteligência analítica" (baseada em regras) para a "inteligência criativa" e preditiva, focando-se na curadoria e rotulagem de dados.
Objetivos:
Distinguir entre sistemas baseados em regras fixas (lógica condicional) e modelos de aprendizagem automática (machine learning).
Analisar como o desequilíbrio e a falta de representatividade nos dados de treino geram modelos ineficazes ou enviesados.
Duração: 90 -100 minutos (duas aulas).
Materiais: Computadores com acesso a uma ferramenta de treino visual (ex: Teachable Machine), conjuntos de imagens para classificação (ex: diferentes tipos de resíduos ou lanches saudáveis).
Passo a passo:
1. Lógica manual (20 min.): Em grupos, os alunos tentam criar um "algoritmo manual" (fluxograma de regras IF-THEN) para classificar objetos complexos, percebendo a dificuldade de prever todas as variantes humanas.
2. Curadoria de dados (30 min.): Os alunos recebem a tarefa de treinar um modelo de ML para a mesma tarefa. Um grupo recebe dados equilibrados, enquanto outro recebe dados propositadamente enviesados (ex: apenas fotos de garrafas de plástico transparentes para um classificador de reciclagem).
3. Treino e auditoria (25 min.): Os alunos treinam os modelos e testam-nos com novos itens (ex: uma garrafa azul). Devem descrever como a qualidade dos dados de entrada ditou a falha ou o sucesso do sistema.
4. Reflexão técnica (15 min.): Debate sobre a responsabilidade do designer na seleção de dados e na mitigação de preconceitos estatísticos.
Competências:
Comparar abordagens técnicas;
Curar e rotular dados;
Pensamento computacional.
Esta atividade foca-se no scoping de problemas comunitários e no design de arquiteturas de sistemas que priorizem o bem comum e a transparência.
Objetivos:
Propor uma solução de IA para uma necessidade real da comunidade escolar ou local.
Documentar a arquitetura, o propósito e as limitações do sistema através de um "Model Card" estruturado.
Duração: 135-150 minutos (três aulas).
Materiais: Papel para prototipagem visual, modelos de Model Cards (Propósito, Dados, Limitações), e acesso a exemplos de problemas comunitários.
Passo a passo:
1. Scoping e justificação (45 min.): Os alunos identificam um problema (ex: sistema de recomendação de atividades extracurriculares ou otimização de rotas de transporte escolar). Devem debater se a IA é a ferramenta proporcional e ética para este caso ou se uma solução não-tecnológica seria preferível.
2. Arquitetura do sistema (45 min.): Sem programar, os alunos desenham o fluxo de dados do sistema, identificando onde ocorre a intervenção humana (human-in-the-loop) para garantir a prestação de contas e segurança.
3. Transparência e Model Card (45 min.): Os grupos elaboram um documento estruturado (Model Card) que resume: quem são os utilizadores, que dados seriam necessários para o treino ético e, crucialmente, o que o sistema não consegue fazer (limitações).
4. Apresentação e defesa (Conclusão): Cada grupo defende a sua solução perante a "comunidade" (turma), explicando como o design previne danos e promove a justiça social.
Competências:
Propor soluções para problemas comunitários;
Design de sistemas;
Comunicação e autonomia.
Esta atividade é uma variante da atividade anterior e foca-se no desenvolvimento da capacidade de compreender e documentar a lógica interna de um sistema de IA, promovendo a transparência.
Objetivos:
Delinear a arquitetura técnica de uma solução de IA para um problema comunitário real.
Criar um "Model Card" para documentar o propósito, os dados de treino e as limitações do sistema.
Avaliar a representatividade dos dados e o risco de enviesamento algorítmico.
Duração: 90-100 minutos (duas aulas).
Materiais: Exemplos de Model Cards reais, acesso a repositórios de dados abertos (ex: Kaggle), e ferramentas de prototipagem visual.
Passo a passo:
1. Identificação do problema (10 min.): Os alunos identificam uma necessidade local (ex: um sistema para recomendar atividades extracurriculares com base nos interesses dos estudantes).
2. Estratégia de dados (20 min.): Devem descrever que dados seriam necessários, como seriam rotulados e que grupos poderiam estar sub-representados, propondo estratégias para mitigar preconceitos.
3. Desenho da arquitetura (20 min.): Sem necessidade de programação real, os alunos desenham o fluxo: entrada de dados → processamento algorítmico → saída (recomendações), indicando onde entra a supervisão humana.
4. Documentação (Model Card) (20 min.): Os alunos preenchem um documento estruturado que resume: para quem é o modelo, o que ele não consegue fazer e que medidas de privacidade foram tomadas.
5. Ciclo de feedback (20 min.): Simulação de um teste de performance onde outros grupos "atacam" o modelo com casos extremos para descobrir falhas de lógica.
Competências:
Conceção de sistemas de IA;
Curadoria de dados;
Consciência de impacto social.
Objetivos:
Projetar um modelo de recomendação baseado em filtragem colaborativa ou baseada em conteúdo.
Analisar criticamente os riscos de "bolhas de filtro" (sugerir sempre o mesmo tipo de atividades).
Definir os pontos de intervenção humana obrigatória para garantir o bem-estar e a diversidade.
Duração: 90-100 minutos (duas aulas).
Materiais: Diagramas de fluxo (templates), acesso a internet para pesquisa de exemplos de algoritmos de recomendação (tipo Netflix/Spotify).
Passo a passo:
Engenharia de atributos (25 min.): Os alunos definem os "vetores" do utilizador. Como quantificar o interesse de um aluno? (ex: Nível de extroversão 1-10, Preferência física vs. intelectual).
Desenho do sistema (35 min.): Os alunos desenham um diagrama técnico que mostre:
Recolha de dados: Inquéritos e histórico de atividades.
Motor de recomendação: Como a IA cruza dados de diferentes alunos para prever o sucesso de uma nova atividade.
Auditoria ética (25 min.): O professor lança desafios: "E se a IA só recomendar atividades caras a alunos de bairros ricos? Como corrigir este viés?". Os alunos devem propor ajustes no algoritmo para garantir a inclusão.
O modelo híbrido (25 min.): Os grupos apresentam a sua solução, detalhando o papel do psicólogo escolar ou do diretor de turma na validação das sugestões da IA para evitar sobrecarga de estudo ou isolamento.
Competências:
Gerir a IA: Avaliar o impacto social e ético de sistemas automatizados de tomada de decisão.
Pensamento sistémico: Compreender como pequenas alterações nos dados de entrada afetam as recomendações a longo prazo.
Agência humana: Defender o conceito de "Human-in-the-loop" (humano no ciclo) como salvaguarda ética.
Objetivos:
Programar um chatbot básico em blocos (ex: Scratch) ou Python usando estruturas if/else.
Analisar a escalabilidade de sistemas baseados em regras vs. modelos de linguagem.
Debater as limitações éticas e de precisão de ambos os sistemas.
Duração: 90-150 minutos (2 ou 3 aulas).
Materiais: Computadores, Scratch ou interpretador Python online, acesso a um LLM.
Passo a passo:
Programação do "bot de regras" (40 min.): Os alunos programam um chatbot que recomenda livros. Devem tentar prever pelo menos 5 variáveis (Género, Idade, Tamanho do livro, etc.).
Desafio: O que acontece se o utilizador escrever com erros de ortografia? (O bot de regras falha).
Análise de falhas (20 min.): Os alunos listam as limitações do seu código: "Quantas linhas de código seriam precisas para recomendar 1 milhão de livros diferentes?".
Experiência com ML (25 min.): Os alunos interagem com um modelo de ML e tentam "quebrá-lo" com pedidos ambíguos. Analisam como a IA usa o contexto em vez de apenas palavras-chave.
Relatório crítico (25 min.): Comparação técnica:
Bot de regras: Previsível, transparente, mas limitado e difícil de manter.
ML: Flexível, lida com imprecisões, mas é uma "caixa negra" e pode inventar livros (alucinação).
Competências:
Conceber a IA: Compreender a transição da programação clássica para a aprendizagem automática.
Análise crítica: Avaliar a eficiência e a fiabilidade de diferentes abordagens tecnológicas.
Resolução de problemas complexos: Estruturar lógica condicional aninhada e prever exceções de utilizador.
Objetivos:
Analisar o impacto do viés (bias) nos dados de treino (ex: luz, fundo, estado do objeto).
Avaliar quantitativamente a performance do modelo (Matriz de Confusão/Precisão).
Propor soluções tecnológicas para problemas ambientais reais.
Duração: 90-100 minutos (duas aulas).
Materiais: Computadores, ferramenta Teachable Machine ou Lobe.ai, acesso a bancos de imagens online (Kaggle ou Google Images).
Passo a passo:
Curadoria de dataset (30 min.): Os alunos devem recolher dois tipos de dados: fotos "perfeitas" (online, fundo branco) e fotos "reais" (lixo na rua, embalagens sujas, luz fraca).
Experiência de performance (30 min.):
Grupo A: Treina apenas com fotos "perfeitas".
Grupo B: Treina com um mix de fotos "reais" e "perfeitas".
Avaliação cruzada (25 min.): Testam ambos os modelos com objetos reais da escola. Devem registar os resultados: "O modelo A reconhece lixo real?".
Debate e relatório (25 min.): Discussão sobre o impacto da qualidade dos dados. Como é que uma IA mal treinada num centro de triagem afetaria o ambiente? Devem descrever como a diversidade dos dados (objetos de diferentes marcas ou estados de conservação) alterou a performance.
Competências:
Gerir a IA: Avaliar a fiabilidade de sistemas de IA em contextos críticos.
Investigação e análise: Aplicar métodos experimentais para testar hipóteses tecnológicas.
Resolução de problemas complexos: Propor melhorias em sistemas de IA baseadas na análise de falhas de dados.
Objetivos:
Elaborar um Model Card estruturado seguindo padrões da indústria (ex: Google/Hugging Face).
Analisar criticamente os dados de treino para identificar possíveis enviesamentos (bias).
Definir "Usos Fora de Âmbito" para prevenir utilizações perigosas da tecnologia.
Duração: 90-100 minutos (duas aulas).
Materiais: Computadores, templates digitais de Model Cards, casos de estudo reais (ex: IA de reconhecimento facial ou de triagem de currículos).
Passo a passo:
Análise de caso (20 min.): O professor apresenta um modelo polémico (ex: uma IA que prevê notas de alunos). Discutem: "Se os dados de treino forem de escolas ricas, a IA serve para todas as escolas?".
Redação técnica (45 min.): Os alunos escolhem um modelo teórico ou real e preenchem as secções avançadas:
Intended Use: Para que foi desenhado?
Out-of-Scope Use: Onde é que é proibido ou perigoso usar? (ex: "Não usar para decisões médicas").
Factors: Funciona igual para todos os géneros, idades ou etnias?
Simulação de auditoria (25 min.): Os grupos trocam de Model Cards. Cada grupo deve tentar encontrar uma "falha" ou um risco que o outro grupo não documentou.
Reflexão ética (20 min.): Debate final sobre como a transparência pode evitar injustiças sociais causadas pela tecnologia.
Competências:
Gerir a IA: Demonstrar competência na supervisão e documentação ética de sistemas complexos.
Pensamento sistémico: Compreender como a origem dos dados afeta as decisões da máquina.
Comunicação técnica: Utilizar terminologia adequada para descrever processos de aprendizagem automática.