3.º ciclo
3.º ciclo
Objetivos:
Comparar um sistema baseado em regras fixas com um baseado em exemplos (machine learning).
Compreender limites de cada abordagem e implicações éticas (erros, viés).
Duração: 90-100 minutos (duas aulas).
Materiais: Computadores com acesso a uma ferramenta simples (p. ex. Teachable Machine ou similar, se autorizado); quadro.
Passo a passo:
Escolher uma tarefa de classificação simples (10 min.)
Ex.: “classificar sons em calmo/ruidoso” ou imagens em “gato/cão”.
Criar um classificador por regras (20 min.)
Em grupos, escrever um conjunto de regras explícitas:
“Se tiver orelhas pontiagudas e bigodes → gato”;
“Se ladrar → cão”.
Testar com exemplos do professor (imagens ambíguas) e registar onde falham.
Treinar um modelo por exemplos (30 min.)
Usar a ferramenta para carregar exemplos rotulados (gatos/cães).
Testar imagens novas e registar acertos/erros.
Discutir: o modelo “aprendeu” algo que não escrevemos em regras? Onde erra mais?
Discussão ética (15–20 min.)
Se este sistema decidisse algo importante (por ex. quem recebe apoio, quem entra numa escola), que problemas surgiriam se os dados de treino fossem enviesados?
Quem é responsável pelos erros: quem desenha regras, quem fornece dados, quem usa o sistema?
Competências:
Comparar sistemas baseados em regras vs aprendizagem automática.
Relacionar qualidade dos dados com justiça do modelo.
A distinção entre algoritmos deterministas (baseados em regras) e probabilísticos (ML) é fundamental para o pensamento computacional. Esta atividade para o 3.º ciclo é excelente para ensinar a "dobradiça" conceitual entre a programação tradicional e a Inteligência Artificial. Ao ser uma atividade unplugged (sem computadores), remove a distração do ecrã e foca-se no processo cognitivo.
Objetivos: Distinguir entre sistemas baseados em regras fixas e modelos que aprendem com dados.
Duração: 45 minutos.
Materiais: Fotos de animais impressas, papel, canetas.
Passo a passo:
1. O desafio da classificação (10 min.)
Divida a turma em dois grandes blocos: a Equipa "Programação Clássica" e a Equipa "Machine Learning". Entregue a ambos um conjunto misto de fotografias (pássaros, morcegos, insetos voadores e alguns animais terrestres).
O objetivo: Criar um sistema que identifique se o animal na foto é um Pássaro.
2. Execução: Dois caminhos para a "inteligência" (20 min.)
Abordagem A: Programação por regras (Determinística)
Este grupo deve agir como programadores tradicionais.
Tarefa: Criar um fluxograma rígido de perguntas de sim/não.
Regras: Eles devem prever todas as condições. Se o animal falhar uma regra (ex: "tem bico?"), é imediatamente descartado.
Resultado: Criam um cartaz com uma Árvore de Decisão lógica.
Abordagem B: Machine learning (probabilística)
Este grupo age como um modelo de rede neuronal.
Tarefa: Eles recebem um "conjunto de treino" (10 fotos confirmadas de pássaros). Não podem escrever regras "Se... Então".
Ação: Devem listar padrões e pesos. (Ex: "Penas são muito importantes", "Ter duas patas é comum, mas não exclusivo").
Resultado: Em vez de uma árvore, criam uma lista de "características prováveis" e dão-lhes uma nota de importância de 1 a 10.
3. O teste de stress e comparação (15 min.)
O professor apresenta "Casos Difíceis" para testar ambos os sistemas:
A avestruz: Tem penas e asas, mas não voa. A regra "Voa?" da Equipa A pode falhar.
O morcego: Voa e tem "asas", mas não tem penas.
Uma foto desfocada: Onde só se vê uma silhueta e um bico sombreado.
Discussão comparativa: | Característica | Regras Fixas (Equipa A) | Machine Learning (Equipa B) | Transparência | Total. Sabemos exatamente porque decidiu "Não". | Baixa. É difícil explicar a "intuição" dos pesos. | Flexibilidade | Baixa. Um erro na regra estraga tudo. | Alta. Lida bem com exceções e ruído. | Ambiguidade | Bloqueia se a informação faltar. | Tenta adivinhar com base na probabilidade. |
4. Reflexão e abstração
Conclua explicando que a IA moderna (como o ChatGPT ou visão computacional) usa a Abordagem B. Ela não tem uma lista de regras gramaticais ou biológicas na memória; ela tem biliões de padrões de "probabilidade" que aprendeu a observar.
Conceitos fundamentais:
Algoritmo determinista: O mesmo input dá sempre o mesmo output através de passos lógicos.
Modelo probabilístico: A decisão baseia-se na maior probabilidade de algo ser verdade.
Competências:
Pensamento algorítmico: Criar sequências lógicas de resolução de problemas.
Abstração: Identificar quais os atributos de um animal são realmente essenciais para a sua classificação.
Análise crítica: Perceber as limitações de cada método tecnológico.
Em grupos, alunos escolhem um problema real (escola, bairro, meio ambiente) e desenham uma solução baseada em IA: descrevem o sistema, dados de entrada e saída esperada, e discutem aspectos éticos.
Objetivos:
Aplicar conceitos de design thinking a soluções de IA;
Estimular criatividade e responsabilidade social;
Introduzir noções de coleta e uso de dados.
Duração: 90-100 minutos (duas aulas).
Materiais: Papel A3/cartolina, marcadores para mapas mentais ou esquemas de fluxo, pesquisa prévia sobre o problema.
Passo a passo:
Cada grupo identifica um problema relevante (ex.: gestão de lixo, segurança, trânsito). (10 min.)
Desenham um diagrama/sistema: que dados seriam recolhidos (sensor de lixo, câmaras de trânsito, etc.), como a IA processaria essa informação (p. ex. algoritmo de classificação ou predição) e qual seria o resultado (alertas, relatórios, recomendações). (20 min.)
Detalham de forma simples: entrada, processamento e saída. Não é necessário programar, mas usar caixas e setas para mostrar o fluxo. (20 min.)
Discutem possíveis impactos: “O nosso sistema de IA respeita a privacidade?”, “Quem toma a decisão final, a máquina ou pessoas?”, “Pode haver injustiça no algoritmo?”. (20 min.)
Apresentam o protótipo à turma, explicando cada parte do desenho e refletindo sobre a responsabilidade humana no uso da IA. (20 min.)
Competências:
Pensamento de design de sistemas (planeamento de soluções algorítmicas);
Resolução de problemas e criatividade (projetar modelo de IA);
Consciência ética (avaliação de consequências sociais e inclusão);
Trabalho colaborativo.
Esta atividade foca-se na curadoria e rotulagem de dados, demonstrando como a representatividade influencia a justiça do modelo.
Objetivos:
Compreender como a seleção e a rotulagem de dados afetam a performance e o enviesamento de um sistema de IA.
Aplicar técnicas de pré-processamento para mitigar erros de classificação.
Duração: 90-100 minutos (duas aulas).
Materiais: Ferramenta visual de treino (ex: Teachable Machine), conjuntos de imagens (ex: diversos tipos de embalagens para reciclagem), grelha de auditoria de dados.
Passo a passo:
1. Recolha e suradoria (20 min.): Os alunos recolhem fotos de objetos recicláveis (ex: garrafas de plástico e caixas de papel). O professor instrui um grupo a usar apenas garrafas transparentes e outro a usar garrafas de várias cores e formatos.
2. Treino e teste (25 min.): Os alunos treinam o modelo e testam-no com objetos novos. O grupo com dados limitados (transparentes) verá o modelo falhar ao identificar uma garrafa de plástico azul.
3. Auditoria de viés (20 min.): Os alunos utilizam uma grelha para analisar o seu dataset: "Que tipos de objetos ficaram de fora? Como é que o meu critério de rotulagem confundiu a máquina?".
4. Refinação iterativa (25 min.): Os alunos corrigem e "limpam" os dados (rotulagem correta), treinam novamente e comparam a melhoria na eficácia e justiça do sistema.
Competências:
Curadoria de dados;
Pensamento computacional;
Avaliação de sistemas.
Esta atividade é uma variante da atividade 3 e foca-se na comparação de abordagens técnicas e na proposta de soluções éticas para problemas comunitários.
Objetivos:
Distinguir entre sistemas baseados em regras fixas (lógica condicional) e modelos de aprendizagem automática (previsões baseadas em padrões).
Desenhar um método onde a IA contribua para o bem comum, garantindo a supervisão humana.
Duração: 90-100 minutos (duas aulas).
Materiais: Cartolinas, marcadores, esquemas de fluxogramas, cenários de problemas escolares (ex: recomendador de clubes ou gestor de lanches).
Passo a passo:
1. O desafio comunitário (15 min.): A turma identifica um problema (ex: "Como ajudar novos alunos a escolher clubes escolares com base nos seus interesses?").
2. Abordagem A: Regras fixas (25 min.): Em grupos, os alunos criam um fluxograma manual (ex: IF gosta de desporto AND prefere equipas THEN recomenda Futebol). Discutem as limitações: e se o aluno gostar de algo que não está na regra?.
3. Abordagem B: Aprendizagem automática (25 min.): Os alunos descrevem como um modelo de ML faria a tarefa, analisando dados de escolhas de anos anteriores. Devem identificar que dados seriam necessários e como a IA encontraria padrões ocultos.
4. Design ético e humano (20 min.): Os grupos propõem o design final, decidindo onde entra a intervenção humana (ex: um tutor valida a recomendação da IA para evitar isolamento social). Devem garantir que o sistema respeita a privacidade.
5. Apresentação do protótipo (15 min.): Cada grupo explica o propósito do modelo, para quem foi desenhado e as suas limitações técnicas e éticas.
Competências:
Design de sistemas;
Comparação técnica;
Responsabilidade social.
Esta atividade é uma variante da atividade 3 e foca-se na utilidade do "Model Card" (documento conciso e padronizado que fornece informações essenciais sobre um modelo de aprendizagem automática, funcionando como um «rótulo nutricional» para promover a transparência, a equidade e a segurança)
Objetivos:
Propor uma solução de IA para um problema real da comunidade escolar.
Documentar a transparência e as limitações do sistema através de um "Model Card".
Decidir a distribuição de tarefas entre humanos e IA, garantindo a intervenção humana em decisões críticas.
Duração: 135-150 minutos (três aulas).
Materiais: Modelo de "Model Card" (Propósito, Utilizadores, Limitações), cartolinas para prototipagem visual.
Passo a passo:
1. Scoping do problema (30 min.): Os alunos identificam uma necessidade local (ex: um sistema para recomendar clubes escolares ou gerir a reciclagem na cantina) e definem o objetivo do modelo.
2. Desenho do fluxo e gestão (30 min.): Os alunos esquematizam como a IA tomaria decisões e onde os humanos devem intervir (ex: um humano deve validar a classificação final para evitar erros do sistema).
3. Criação do Model Card (40 min.): Os grupos preenchem um documento estruturado resumindo: para quem é o modelo, que dados seriam necessários para o treinar e o que o sistema não consegue fazer (limitações).
4. Apresentação e auditoria de pares (20 min.): Os grupos apresentam os protótipos e outros alunos tentam encontrar falhas éticas ou técnicas (vieses nos dados propostos).
Competências:
Pensamento computacional (decomposição);
Design de sistemas;
Colaboração;
Honestidade académica.
Objetivos: Compreender a arquitetura básica de um sistema de recomendação e como os loops de feedback influenciam o utilizador.
Duração: 90-100 minutos (duas aulas).
Materiais: Esquema visual de uma "bolha de filtro", post-its.
Passo a passo:
Sessão 1: Mapear a "Caixa Preta" (45-50 min.)
1. A engenharia do clique (20 min.)
Inicie com um desafio: "Se o teu YouTube fosse uma pessoa, o que é que ela saberia sobre ti?". Explique que os algoritmos de recomendação funcionam com base em Sinais de Dados.
O desenho do fluxo: Em grupos, os alunos devem desenhar o "motor" do algoritmo num cartaz. Devem incluir:
Entrada (input): O que eu vi, o que pesquisei, quanto tempo parei num vídeo.
Processamento: O algoritmo procura vídeos semelhantes.
Saída (output): A lista de "Próximos Vídeos".
2. Simulação: O loop de feedback (25 min.)
Use post-its para simular o algoritmo em tempo real.
Cenário: Um aluno diz "Gosto de vídeos de motas". O grupo (o algoritmo) entrega-lhe 3 post-its com temas de motas.
O problema: Na ronda seguinte, o aluno já só tem motas para escolher. Se clicar numa, recebe mais 5 de motas.
A conclusão: Ao fim de 5 rondas, o aluno não vê mais nada além de motas. Isto é o Loop de Feedback Positivo que cria a Bolha de Filtro.
Sessão 2: Redesenhar para a Diversidade (45-50 min.)
3. Auditoria crítica (20 min.)
Debata as consequências sociais desta arquitetura:
Polarização: "Se eu só vejo opiniões iguais à minha, o que acontece quando encontro alguém que pensa diferente?"
Vício: "O algoritmo quer que eu fique na app. Ele recomenda o que é 'verdade' ou o que é 'viciante'?"
4. Proposta de melhoria: o algoritmo ético (25 min.)
Os grupos devem agora "hackear" o seu desenho inicial e introduzir mecanismos de transparência e diversidade.
O novo design: Devem adicionar novos "componentes" ao motor, tais como:
Botão de serendipidade: Um botão que mostra algo totalmente aleatório e fora da bolha.
Verificador de contraponto: Se o utilizador vê um vídeo sobre um tema polémico, o sistema deve sugerir um vídeo com uma perspetiva diferente.
Indicador de transparência: Uma legenda que diga: "Estamos a mostrar-te isto porque viste o vídeo X".
5. Apresentação (5 min.)
Cada grupo explica: "Como é que o nosso novo algoritmo ajuda o utilizador a ser mais livre e mais bem informado?".
Competências:
Design de sistemas: Entender como os componentes de uma tecnologia interagem entre si.
Literacia algorítmica: Saber que o conteúdo que recebemos é uma escolha matemática, não uma verdade universal.
Consciência social: Identificar como a tecnologia pode isolar grupos de pessoas em bolhas ideológicas.
Objetivos:
Identificar que tipo de dados (interesses, horários, localização) alimentam uma IA de recomendação.
Esboçar um fluxo lógico de decisão (se X gosta de desporto e tem terça livre, então recomenda Y).
Debater a importância da escolha final ser sempre do aluno (agência humana).
Duração: 90-100 minutos (duas aulas).
Materiais: Cartolinas, post-its de cores diferentes, marcadores.
Passo a passo:
Mapa de dados (20 min.): Em grupos, os alunos listam num post-it azul "O que a IA precisa de saber sobre nós?" (ex: desportos favoritos, se gosta de música, que horas sai da escola).
O algoritmo de papel (30 min.): Usando setas e post-its amarelos, os grupos criam um caminho de decisão.
Exemplo: "Se o interesse = 'Desenho' e o orçamento = 'Grátis' ➡️ Sugerir: Clube de BD da Biblioteca".
O filtro humano (20 min.): O professor introduz um problema: "A IA sugeriu Futebol a um aluno que odeia competição. O que falhou?". Os alunos discutem como um tutor humano ou o próprio aluno deve poder ajustar as sugestões.
Apresentação (20 min.): Os grupos mostram o seu "cartaz-algoritmo" e explicam como a IA ajudaria a descobrir atividades que eles nem sabiam que existiam.
Competências:
Conceber a IA: Compreender a relação entre entrada de dados (input) e resultado (output).
Pensamento computacional: Utilizar lógica condicional para resolver um problema de organização.
Literacia de dados: Reconhecer a necessidade de dados pessoais para a personalização de serviços.
Objetivos:
Criar um fluxo de decisão lógico (Se/Então) para recomendar um livro.
Compreender a rigidez de um sistema baseado apenas em regras manuais.
Identificar a diferença entre seguir um caminho fixo e prever preferências.
Duração: 90-100 minutos (duas aulas).
Materiais: Cartolina, post-its, canetas de cores diferentes, acesso a um chatbot de ML (ex: Gemini/ChatGPT).
Passo a passo:
Desenho do fluxograma (30 min.): Em grupos, os alunos criam uma "Árvore de Decisão" física na cartolina.
Pergunta 1: Gostas de histórias reais? (Sim -> Não)
Pergunta 2: Preferes o passado ou o futuro?
Cada caminho deve levar a um livro específico da biblioteca da escola.
O teste do "utilizador" (20 min.): Um grupo testa o fluxograma do outro. Se o utilizador responder algo que não está no papel (ex: "Tanto faz"), o sistema "crasha" ou falha.
Duelo com ML (20 min.): Os alunos fazem a mesma pergunta a uma IA de ML: "Sugere-me um livro baseado no facto de eu gostar de videojogos e mistério". Observam como a IA lida com linguagem natural e nuances.
Comparação (20 min.): Discussão final: "Quem é mais fácil de programar? Quem é mais inteligente a lidar com surpresas?"
Competências:
Pensamento computacional: Utilizar lógica condicional para estruturar a resolução de problemas.
Conceber a IA: Distinguir sistemas determinísticos (regras) de sistemas probabilísticos (ML).
Objetivos:
Compreender a importância da transparência em sistemas de IA.
Identificar os componentes básicos de um modelo (dados, objetivo e limites).
Aprender a ler e a escrever documentação técnica simplificada.
Duração: 90-100 minutos (duas aulas).
Materiais: Modelo de Model Card em papel (A4), acesso a ferramentas simples de IA (ex: filtros de imagem ou tradutores), marcadores.
Passo a passo:
Escolha do objeto (15 min.): Os alunos escolhem uma IA que usam no dia a dia (ex: o corretor do telemóvel, o filtro de "velho" das redes sociais ou o recomendador da Netflix).
Investigação em grupo (25 min.): Em pares, respondem: "O que é que isto tenta prever?", "Que fotos ou textos precisou de ver para aprender?", "Quando é que ele falha?".
Preenchimento do BI (35 min.): Os alunos preenchem o cartaz com as secções:
Nome do modelo: (ex: Filtro Manga).
O que faz: (Transforma caras em desenhos).
Dados de treino: (Milhares de desenhos e fotos de pessoas).
Atenção/perigos: (Pode não funcionar bem com chapéus ou óculos).
Galeria de transparência (15 min.): Afixam-se os cartões e a turma circula para ler os avisos uns dos outros.
Competências:
Literacia digital: Capacidade de ler e produzir documentação sobre tecnologia.
Pensamento crítico: Avaliar as limitações de ferramentas digitais comuns.
Responsabilidade: Compreender que a IA tem "instruções de uso" e riscos.
Objetivos:
Compreender como a IA aprende a classificar objetos através de exemplos visuais (treino).
Identificar o impacto da quantidade de fotos na precisão do modelo.
Distinguir materiais recicláveis por categorias (plástico, papel, metal).
Duração: 90-100 minutos (duas aulas).
Materiais: Telemóveis ou tablets, acesso à ferramenta (Google), embalagens reais de lixo limpas.
Passo a passo:
Recolha de dados (25 min.): Em grupos, os alunos tiram 10 fotos de diferentes ângulos de um objeto (ex: garrafa de plástico). Depois, tiram 10 fotos de outro (ex: caixa de cartão).
Treino Inicial (20 min.): No Teachable Machine, criam as classes "Plástico" e "Papel". Carregam as fotos e clicam em "Train".
O teste do erro (20 min.): Os alunos mostram um objeto novo (ex: uma garrafa esmagada ou uma embalagem de iogurte). Se a IA falhar, devem discutir: "Por que é que ela se enganou? Foi falta de fotos ou a luz estava má?".
Melhoria e conclusão (25 min.): Adicionam mais 20 fotos com fundos diferentes e testam novamente. Devem anotar a diferença na confiança do modelo (percentagem).
Competências:
Conceber a IA: Compreender o processo de treino de modelos de classificação.
Literacia de dados: Reconhecer a importância de datasets variados.
Pensamento crítico: Analisar a causa de erros em sistemas automatizados.
Objetivos:
Comparar o desempenho de diferentes modelos de IA (ex: Tradutor Estatístico vs. Tradutor de Redes Neuronais/LLM).
Identificar erros de contexto, gíria e tom em diferentes sistemas.
Propor melhorias baseadas na experiência de utilização.
Duração: 90-100 minutos (duas aulas).
Materiais: Computadores, acesso a pelo menos três ferramentas (ex: Google Translate, DeepL, ChatGPT), um texto curto com gíria ou expressões idiomáticas.
Passo a passo:
O desafio do tradutor (15 min.): O professor fornece um parágrafo em inglês que contenha expressões idiomáticas (ex: "It's raining cats and dogs" ou "Break a leg").
O teste cego (30 min.): Em grupos, os alunos submetem o texto aos três modelos. Devem copiar os resultados sem saber qual pertence a qual sistema (atribuindo apenas ID A, B e C).
Avaliação por grelha (20 min.): Os alunos avaliam os resultados: "Qual soa mais natural?", "Algum traduziu à letra e perdeu o sentido?"
O painel de melhoria (25 min.): Os alunos "entrevistam-se" uns aos outros sobre as falhas. Devem escrever três sugestões para os programadores da IA (ex: "A IA deveria perguntar se o texto é formal ou informal antes de traduzir").
Competências:
Pensamento crítico: Avaliar a qualidade da produção tecnológica face ao contexto humano.
Literacia digital: Compreender que diferentes ferramentas têm diferentes níveis de precisão.
Colaboração: Trabalhar em equipa para recolher e organizar feedback de utilizador.