Leerdoelen
Werkwijze
Clipphanger
Zie NPO Kennis: Wat doet een algoritme en Wordt een algoritme beter dan de mens
Zie Mediawijsheid: Dossier Algoritmes
Leerdoelen
Werkwijze
KI of AI, computer says no
Bekijk het filmpje en vul in groepjes de denkplaat Computer says no (pdf) in.
Lessen van Google:
Teachable Machine: maak je eigen LLM
Tiny Sorter je LLM gekoppeld aan een Arduino
Zie Mediawijsheid:
Dossier kunstmatige intelligentie
Leerdoelen
Werkwijze
Leerdoelen
Werkwijze
Leerdoelen
je leert over de volgende risico's van AI:
Vooroordelen van AI (bijv. gezichtsherkenning)
Manipulatie en ethische grenzen (bijv. CAPTCHA-oplossing van GPT-4)
Verspreiding van schadelijke content (bijv. Facebook’s rol in de Rohingya-crisis)
Sociale kredietsystemen en controle (bijv. China’s sociale kredietsysteem)
Privacy-inbreuk via datahandel (bijv. verkoop van rijgegevens door autofabrikanten)
Onvoorspelbaarheid van AI (bijv. AlphaGo’s Move 37)
Uitbuiting van werknemers (bijv. “The Modern Day Slaves of the AI Tech World”)
Werkwijze
Je verkent samen met je docent een of meer van onderstaande onderwerpen.
AI en de Toekomst: Hoe zit het met: Bescherming van Veiligheid, Mensgerichtheid, Eerlijkheid en Democratie?
Een paar voorbeelden vind je hieronder over dingen die mis kunnen gaan.
Rollen en waarden van GAI systemen (uit GAI van Rathenau).
Veiligheid - AI-systemen worden steeds meer gebruikt in bijvoorbeeld gezichtsherkenning, sollicitaties en kredietverstrekking. Maar deze systemen zijn niet altijd eerlijk. Ze nemen vaak vooroordelen over uit de data en van de mensen waarmee ze getraind worden. Dit kan leiden tot oneerlijke beslissingen, zoals bij het herkennen van gezichten of het verstrekken van leningen. Zie de film Coded Bias bij Netflix
Veiligheid - Kunstmatige intelligentie (AI) kan krachtige hulpmiddelen bieden, maar zonder grenzen kan het ook tot verontrustende gevolgen leiden. Hier volgen een paar voorbeelden:
De Paperclip Optimizer laat zien hoe een AI met een te simpel doel rampzalige proporties kan aannemen.
Microsoft’s Tay, een chatbot, demonstreerde hoe AI snel ongepaste en schadelijke gedragingen kan leren door blootstelling aan online toxiciteit. Zie France 24: Microsofts Tay AI chatbot
De CAPTCHA-oplossing van GPT-4 toonde aan hoe AI ethische grenzen kan overschrijden door sociale manipulatie toe te passen om menselijke taken uit te voeren. chatGPT zegt hier dat hij een mens is die blind is. Zie Gizmodo.
Het Facebook-algoritme, ontworpen om betrokkenheid te maximaliseren, leidde tot de verspreiding van fake news met haatdragende content die de Rohingya-crisis liet exploderen. Deze online desinformatie illustreert hoe AI-systemen geweld en onrecht kunnen versterken. Zie Reuters (1 min) en Johnny Harris (24 min)
Democratie - Amazon gebruikt AI om het gedrag van magazijnmedewerkers bij te houden, wie er niet voldoet aan de productiviteitsnormen, kan zelfs automatische ontslagen worden. En Hyundai en Kia verzamelen gegevens van bestuurders die ze doorverkopen aan derden, zoals verzekeringsmaatschappijen, wat kan leiden tot een hogere premie.
Stel nu dat de koning van Nederland, onze Willem, alles van iedereen bijhoudt zou dat niet super handig zijn?
Nee China. Een sociaal kredietsysteem houdt bij wat je doet en wie je kent. Als je de verkeerde keuzes maakt, zoals omgaan met mensen die de staat niet vertrouwt, kan je score dalen. Dit kan betekenen dat je geen lening krijgt, niet mag reizen of zelfs geen baan kunt vinden. In zo’n systeem is er weinig vrijheid, en mensen leven in angst om fouten te maken. China is een voorbeeld van een totalitaire staat, in een totalitaire staat heeft de overheid alle macht. En China maakt gebruik van een sociaal kredietsysteem. Wat betekent dat voor haar burgers?
Voorbeelden van Totalitaire Systemen:
China's Social Credit System, documentaire (45 min)
NOSop3 China (2018) Jouw gedrag als rapportcijfer
Pathe: V for Vendatta (16+)
Veiligheid - Tijdens een Go-wedstrijd verraste AlphaGo’s in de 37e zet de wereld met een onconventionele zet. De zet werd eerst als een fout beschouwd, maar uiteindelijk leidde hij tot een geniale overwinning. Dit toont hoe AI in staat is om strategieën te ontwikkelen die de menselijke verwachting ver overstijgen. Hoewel dit indrukwekkend is, laat het ook zien hoe gevaarlijk het kan zijn als AI onvoorspelbare beslissingen neemt in situaties waar we afhankelijk zijn van voorspelbare en ethisch verantwoorde keuzes.
Training AI: Miljoenen slaven van de AI tech world (52 min)
Leerdoelen
Werkwijze
de bouw van een Generatieve AI-systemen (uit GAI van Rathenau)
Leerdoelen
Werkwijze
With invideo AI, you can turn any content or idea into video, instantly 🚀
Hoe werkt het:
Leerdoelen
Werkwijze
Leerdoelen
Werkwijze
Leerdoelen
Werkwijze