Diese Zukunftswerkstatt bietet sich als einführende, abschließende oder vertiefende Methode zum Themenfeld Big Data bzw. NT-Unterricht an. Die Zukunftswerkstatt umfasst drei Hauptphasen, sowie eine Vorphase und eine Nachbereitung. In dieser Zukunftswerkstatt werden verschiedenste Methoden (Reflektion, Argumentation, Recherche, Übungen etc.) gebraucht. Die Zukunftswerkstatt soll Big Data Analytics (Untersuchung von grossen Mengen an Daten unterschiedlicher Art) und seine gesellschaftlichen Folgen auf einer individuellen und auch überindividuellen, politischen Ebene thematisieren. Ziel der Zukunftswerkstatt ist es, einen Rahmen zu schaffen, in dem es möglich ist, Chancen und Risiken dieser Entwicklungen abzuschätzen und sich zugleich in der Vorstellungskraft nicht von den Einschränkungen des Bestehenden behindern zu lassen. Ausgehend von der gegenwärtigen gesellschaftlichen Realität wird eine mögliche und wünschenswerte Zukunft erdacht. Wege und Möglichkeiten in diese Zukunft können mit der Methode sehr konkret und realistisch geplant werden.
Die Methode Zukunftswerkstatt wurde in der zweiten Hälfte des 20. Jahrhunderts von Zukunftsforschern entwickelt und wird seither in zahlreichen Varianten genutzt. Die Zukunftswerkstatt bietet sich als einführende, abschließende oder vertiefende Methode zum Themenfeld Big Data an. Je nach Voraussetzung müssen Aufgabenstellungen oder Theorieteile angepasst oder erweitert werden. Ausgehend von der gegenwärtigen gesellschaftlichen Realität wird eine mögliche und wünschenswerte Zukunft erdacht. Wege in diese Zukunft können mit der Methode sehr konkret und realistisch geplant werden.
Die Zukunftswerkstatt thematisiert Big Data und seine gesellschaftlichen Folgen auf einer überindividuellen, politischen Ebene. Ziel der Zukunftswerkstatt ist es, einen Rahmen zu schaffen, in dem es möglich ist, Chancen und Risiken dieser Entwicklungen abzuschätzen und sich zugleich in der Vorstellungskraft nicht von den Einschränkungen des Bestehenden behindern zu lassen.
Die Methode folgt dabei dem Schema: Kritik am Ist-Zustand, Vision eines Soll-Zustandes und Planung von Wegen, den Soll-Zustand zu erreichen. Die Zukunftswerkstatt bezieht sich spielerisch und planerisch auf die gegenwärtige Gesellschaft. Damit weist die Methode in Richtung einer kollektiven, politischen Handlungsperspektive.
Diese Zukunftswerkstatt richtet sich an Sek. und spez. Sek. Klassen. Das ganze Thema kann sehr fordernd sein und ist in seinem Umfang und in seiner Tiefe herausfordernd. Es empfiehlt sich diese Werkstatt nur einzusetzen, wenn die Schulklasse über gut ausgebildete überfachliche Kompetenzen verfügt (siehe LP21).
Diese Zukunftswerkstatt arbeitet mit verschiedenen Phasen. Jede Phase hat einen digitalen oder analogen Output als Endprodukt. Es empfehlen sich grundsätzlich folgende Beurteilungsarten bzw. -anlässe:
In der formativen Beurteilung steht das Aufzeigen von Entwicklungsschritten im Sinne einer Prozessorientierung im Vordergrund. Die lernende Person soll damit Orientierung für die Planung ihres Lernprozesses erhalten. Die möglichst selbständige Steuerung und Kontrolle des eigenen Lernprozesses kann so verbessert werden. Es geht hier also um eine Analyse des Lernprozesses und um lernfördernde Massnahmenentwicklung.
Formative Beurteilungsformen: Lerntagebuch, Standortbestimmungen, Beurteilungsgespräche, Portfolio, Protokolle, Laborjournal etc.
Durch die Form der Zukunftswerkstatt ist die Möglichkeit zur formativen Beurteilung natürlicherweise gegeben. Hier kann die ganze Gruppe oder das Individuum beurteilt werden.
Hier handelt es sich um ein (immer wieder) abschliessendes, zusammenfassendes Urteil über die bis zu einem bestimmten Zeitpunkt erworbenen Kenntnissen und Fähigkeiten im Sinne einer bilanzierenden Ergebnisorientierung. Die Hauptfunktion besteht im Erhalten von präzisen Informationen über den Leistungsstand der zu Beurteilenden. In der summativen Beurteilung lassen sich wiederum zwei Verfahren unterscheiden:
Diese Beurteilungsform muss vor der Zukunftswerkstatt bewusst gewählt werden, um eventuell ein Beurteilungsraster für alle SuS herzustellen. Als Lehrperson hat man in dieser Werkstatt Zeit, um sich um die Beurteilung der SuS zu kümmern. Überfachliche Kompetenzen können mit dieser Methode individuell sehr gut beurteilt und gefördert werden.
Die Dauer der Zukunftswerkstatt kann je nach Klasse und Niveau unterschiedlich sein. Es empfiehlt sich mindestens 6 Lektionen Zeit zu nehmen.
Um die Zukunftswerkstatt möglichst angenehm zu gestalten, sollten Laptops oder iPads zur Verfügung gestellt werden, damit eine mobile Arbeitsweise möglich ist. Da diese Werkstatt etwas Ungewöhnliches und Spannendes sein sollte ist es zu empfehlen, die gewohnte Umgebung eines Klassenzimmers zu verlassen oder so umzustellen, dass Gruppenarbeiten und kreatives Arbeiten ermöglicht werden. In jedem Fall sollten für die Gruppenphasen Rückzugsorte und Arbeitsplätze vorhanden sein. Für die Einführung mit den kurzen Videos bzw. die Besprechung des Ablaufs vorzunehmen, sollte ein Projektor und ein Rechner zur Verfügung stehen.
Den Schülerinnen und Schülern werden Ablauf und Ziel der Methode erläutert. Zudem werden gemeinsame Regeln für den Spielablauf festgehalten.
In einer kurzen thematischen Einführung mittels kurzer Videobeiträge wird ein gemeinsames Grundverständnis aufgebaut. Zur Vertiefung könnten eventuell weitere Methoden hinzugezogen werden (Dokumentarfilm, Vortrag etc.).
In der folgenden Recherchephase müssen die SuS die Breite der möglichen Anwendungsfelder und die Ambivalenzen von Chancen und Risiken die sich für unsere Gesellschaft ergeben können bzw. werden, kennenlernen und sich nach dieser Auseinandersetzung dazu positionieren.
In der Werkstattphase geht es darum, drei moderierte Gruppenphasen in Bezug auf Big Data allgemein (oder auch spezifische Teilgebiete eines Themas) zu durchlaufen:
1. Kritikphase – Probleme identifizieren und ausformulieren.
2. Fantasiephase – Vorstellungen davon entwerfen, wie es ohne Risiken und Probleme aussehen könnte oder aussehen sollte.
3. Verwirklichungsphase – Wege finden, wie die erarbeiteten Ziele aus der zweiten Phase umgesetzt werden können.
Die erarbeiteten Sammlungen müssen online veröffentlicht und der Klasse zugänglich gemacht werden. Hierfür lohnt es sich eine geeignete Plattform zu finden (zBsp. Google Sites, Google Drive etc.)Die Sammlungen der Ideen und Planungen werden allen präsentiert um anschliessend einen Ausblick bzw. eine mögliche Handlungsperspektive aufzuzeigen. Die Verwirklichungsphase soll nicht das Ende dieser Werkstattphase sein und nicht unbedingt heissen, dass die vertieften Themen nun ohne Konsequenzen in den Tiefen des Internets verloren gehen. Weitere Projekte können aus dieser Zukunftswerkstatt entstehen und auch in anderen Rahmen (zBsp. Projekt fürs ganze Schulhaus, Verbindung mit Berufswahlvorbereitung etc.) vertieft und weiterverarbeitet werden.
Den SuS wird die Methode Zukunftswerkstatt vorgestellt und erklärt, wie sie Aufgebaut ist und worin das Ziel besteht. Es werden gemeinsam wichtige Spielregeln aufgestellt, welche für alle Verbindlich sind (zBsp. Zeit, Ort, Organisation etc.). Die Diskussion soll im Plenum stattfinden und soll folgende Fragen klären: Wie soll die Moderation (LP) arbeiten? Wie wollen wir fair miteinander kommunizieren und arbeiten? Welche Sonderregeln haben die verschiedenen Phasen? Wie können die Tätigkeiten und Nebentätigkeiten so angenehm wie möglich gestaltet werden (Kopfhörer, Musik, Raumgestaltung etc.)? Diese Regeln können auf Papier oder in anderer Form (PP-Folie) festgehalten, diskutiert, modifiziert und dauerhaft sichtbar platziert werden.
Nun Braucht es von den SuS entsprechendes Vorwissen. Dies kann im Vorfeld ausserhalb der Zukunftswerkstatt passiert sein oder entsprechend in dieser Werkstatt als inhaltliche Einführung, die ein gemeinsames Grundverständnis zu Big Data vermittelt. Am einfachsten gelingt dies mit Videos, welche die Grundideen und einzelne zentrale Anwendungsfelder von Big Data zeigt. Selbstverständlich ist auch eine Einführung der Lehrperson/en möglich. Hier eine Auflistung von in Frage kommender Videos bzw. Radiosendungen die alle online verfügbar sind und ein Ausschnitt aus einer Broschüre des jfc Medienzentrums. Selbstverständlich lohnt es sich vor der Durchführung selber Videos im Internet zu suchen oder anderweitige Möglichkeiten für die Einführung zu ergründen und vorzubereiten.
Ausschnitt aus: „Big Data- eine Arbeitshilfe für die Jugendarbeit“ Eine Broschüre des jfc Medienzentrum e.V. www.jfc.info
Vor zweieinhalb Millionen Jahren führten zufällige Veränderungen im Erbgut dazu, dass einem affenähnlichen Landtier ein immer größeres Gehirn wuchs; und mit einer gewissen Größe und ‚Rechenleistung‘ entstand irgendwann Bewusstsein und menschliche Intelligenz. Wir wissen nicht, ob Computer jemals Bewusstsein entwickeln werden. Aber wir können zur Zeit auch in der Welt der vernetzten Computer beobachten, wie aus einem einfachen quantitativen „Mehr“ – mehr Rechner mit größeren Speichern und mehr schnelleren Prozessoren, engmaschiger miteinander vernetzt, und das alles zu immer günstigeren Preisen – qualitativ neue, unvorhergesehene Dinge wachsen.
Eine umgangssprachliche Definition von Big Data lautet: „Datensätze, die sich nicht mehr in eine Excel-Tabelle pressen lassen“ – Excel erlaubt Tabellengrößen von gut einer Million Zeilen und über 16000 Spalten. Es geht also um große Datenmengen: Daten als neuer Rohstoff, oft als das ‚neue Erdöl‘ bezeichnet – oder auch das neue Uran. Und es geht darum, wie man an diese Daten kommt, und wie man mit ihnen „Big Data Mining“ betreibt – welche Schätze man aus den Datenbergen schürft, und was man mit diesen Schätzen anstellt.
Spätestens seit Edward Snowden im Sommer 2013 seine Insider-Informationen zu den Überwachungsprogrammen der USGeheimdienste NSA und CIA veröffentlichte, wissen wir, dass staatliche Stellen zumindest in den USA in weitreichendem Umfang Telekommunikation von Telefongesprächen bis hin zu E-Mails und Facebook-Aktivitäten überwachen und automatisiert auswerten – Big Data Mining im ganz großen Stil. Auf nichtstaatlicher Seite ist wohl Google der wichtigste Big-Data-Akteur – ein Unternehmen, dessen Mission lautet, „die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen“. Spannend ist hier die Frage des Organisierens: Google verdient sein Geld ja nicht mit Verkauf von Daten, sondern mit dem gezielten Zeigen bestimmter Daten – von Werbeanzeigen, die möglichst gut auf den die Betrachter/in abgestimmt sind. Eine böse Definition lautet: Big Data „ist der Bund zwischen Kapitalismus und Diktatur mit der Verheißung neuer, profitabler Geschäftsmodelle der totalen Überwachung“. Sie stammt von der Big-Data-Unternehmerin Yvonne Hofstetter.
Also: Was macht Big Data aus? Schauen wir uns einige der zentralen Aspekte an.
Digitalisierung und Vernetzung
Bilder, Töne, Temperaturdaten – alles, was sich digitalisieren lässt, kann von Computern verarbeitet, in Beziehung zueinander gesetzt, übers Internet nicht nur versendet sondern auch analysiert werden. Dass sich durch diese triviale Tatsache die Welt verändert, davon kann unter anderem die Musikindustrie ein Lied singen: Das Teilen von Musikaufnahmen in Form digitaler Dateien hat einen ganzen Wirtschaftszweig radikal verändert.
Sensoren
In letzter Zeit ist viel vom „Internet der Dinge“ die Rede: Nachdem Computer und Festnetztelefone schon länger via Internet kommunizieren, kommen nun zunehmend andere Geräte dazu – etwa Haushaltsgeräte, Industrieanlagen, Verkehrsinfrastruktur. Somit sind übers Internet immer mehr Daten über diese Welt abrufbar: Temperaturen in privaten Wohnräumen, Bilder zahlloser privater und staatlicher Überwachungskameras, Stationen einzelner Konsumgüter auf ihrem Weg von der Produktion über den Laden zum Verbraucher, Pulsdaten von SmartwatchTräger/innen. Yvonne Hofstetter beschreibt die „Multi-Sensor-Datenfusion“ als ein Kernelement von Big Data: Digitale Daten verschiedenster Sensoren können kombiniert werden, um ein Gesamtbild zu erhalten.
Smartphones
Gegenwärtig (2015) besitzt etwa ein Viertel der Weltbevölkerung und mehr als die Hälfte der Deutschen ein Smartphone. Davon läuft ein großer Teil mit dem AndroidBetriebssystem der von Google mitgegründeten Open Handset Alliance; weltweit wohl über 70%. Das ist vielleicht das weltgrößte Sensorennetzwerk. Schon normale Mobiltelefone können über die jeweils umliegenden Sendemasten recht präzise geortet werden; Smartphones verfügen über mehrere Sensoren (Kameras, Bewegungs- und Lagesensoren, präzise GPS-Ortung und mehr) und sind häufig mit dem Internet verbunden. Android-Smartphones in Werkseinstellung senden zahlreiche Daten an Google; so kann Google z.B. allein aufgrund von AndroidSmartphone-Bewegungsdaten Staus feststellen und auf Google Maps anzeigen.
Social Media
Zu den Daten, die Sensoren automatisch ins Internet senden, kommen die Daten, die Milliarden von Menschen bewusst online stellen. Etwa auf Facebook: Das soziale Netzwerk hatte 2014 im vierten Quartal 1,39 Milliarden aktive Nutzer/innen: „Täglich sind 890 Millionen Facebook-Nutzer online, die mehr als 1 Mrd. Suchanfragen bei Facebook tätigen, ~2 Mrd. Bilder pro Tag teilen, 3 Mrd. Videos anschauen und 7 Mrd. Likes pro Tag verteilen“. Oder YouTube: Bereits im Mai 2013 luden User weltweit pro Minute 100 Stunden Videomaterial hoch. Ein großer Teil dieser Daten ist öffentlich sichtbar; und Facebook selbst (und mittelbar die NSA) hat natürlich auch Zugriff auf diejenigen Daten, die die Nutzer/innen nur mit ausgewählten Facebook-Freund/innen teilen.
„Intelligente“ Algorithmen
Das alljährlich wachsende Ausmaß digital verfügbarer Daten wurde lange als Problem diskutiert: Die Datenflut, der Riesenberg an (technischer) Information, in dem (für Menschen relevante) Bedeutung untergeht. Nørretranders unterschied 1991 zwischen Information und Exformation: Wertvoll seien für Menschen nicht die Datenhaufen der Information, sondern die Exformation – die Auswahl des Relevanten, das Weglassen von Unwichtigem.16 Big Data Mining löst dieses Problem durch zunehmend „intelligente“ Algorithmen, die die Arbeit übernehmen, die Nadel der Relevanz im Heuhaufen der Information zu finden. Also z.B. Gesichter gesuchter Personen im gesamten öffentlichen Foto- und Videobestand des Internets zu identifizieren. Während Google den PageRank-Algorithmus seiner Suchmaschine streng geheim hält, ist das Big-Data-Framework Apache Hadoop, das Googles MapReduce-Algorithmus nutzt, auch für Privatpersonen und Kleinunternehmen zugänglich – damit kann quasi jede/r Big-Data-Forscher/in oder –Unternehmer/in werden; eine gute Idee und Zugang zu den relevanten Daten vorausgesetzt.
Korrelation
„Algorithmen durchwühlen Datenmengen, die Menschen allein nicht mehr in den Griff kriegen würden“: Auch das ist eine mögliche Definition von Big Data Mining. Gesucht werden dabei vor allem Korrelationen: Wo lassen sich Muster und Zusammenhänge beobachten? So hat die US-Supermarktkette Walmart festgestellt, dass bei Hurrikanwarnungen die Nachfrage nach einem bestimmten Süßgebäck (Poptarts) stark ansteigt; dieses Wissen wird seither gewinnbringend eingesetzt. Konkurrent Target ging noch einen Schritt weiter: Aufgrund des Einkaufsverhaltens konnte Schwangerschaft von Kundinnen mit großer Treffsicherheit erkannt werden, sogar der Schwangerschaftsmonat konnte recht zuverlässig bestimmt werden; Geld verdienen ließ sich damit allerdings zunächst nicht, dafür war die Irritation der ‚enttarnten‘ Schwangeren, die plötzlich Angebote für Babyprodukte erhielten, doch zu groß.
„n=all“
Nun ist Korrelation von Daten noch kein Beweis für einen tatsächlichen (kausalen) Zusammenhang. Statistik-Lehrbücher sind voll mit Beispielen von Fehlschlüssen auf der Basis starker Korrelationen. Im Big-Data-Zeitalter ist Korrelation aber immer häufiger „gut genug“: Wenn man nicht mehr mit Stichproben arbeiten muss, sondern SEHR viele Daten hat, idealerweise von ALLEN relevanten Fällen/Vorgängen – in der Statistik „n=all“ genannt – dann wird Ungenauigkeit von Einzeldaten unproblematischer, und Aussagen über Korrelationen reichen häufiger aus, um richtige Entscheidungen zu treffen. Was für die große Mehrheit aller Fälle richtig ist, kann dennoch im Einzelfall zu Fehlschlüssen und falschen Entscheidungen führen: „Menschen werden also aufgrund ihrer durch Big Data vorhergesagten Neigungen beurteilt – und nicht aufgrund ihres tatsächlichen Verhaltens. Damit wird die Chance eingeschränkt, sich anders zu verhalten als vorhergesagt und die Zukunft selbst zu gestalten. Da die Vorhersage auf unseren vergangenen Handlungen beruht, werden diese nicht vergessen: Wir können unserer eigenen Vergangenheit nicht entkommen. Die Verhaltensvorhersagen durch Big Data beeinflussen z.B. die Auswahl der Informationen und Produkte, die uns angeboten werden, die Jobs, die wir bekommen können, die Partnerwahl. Sie gefährden also insbesondere unsere Handlungs- und Entscheidungsfreiheit als Subjekt.“
Von der Einführung ausgehend ist es nun Zeit, sich mit verschiedenen konkreten Themenfelder von Big Data auseinanderzusetzen. Folgende Themenfelder werden vorgeschlagen:
· „Deep Learning / AI“
· „Predictive Policing“
· “Staatliche Überwachung / Vorratsdatenspeicherung“
· „Daten als Ware“
· „Self-Tracking und Selbstoptimierung / Quantified Self“
· „Social Bots und Filter Bubble / Personalisierte Weltsichten durch das Internet?“
· „Informationelle Selbstbestimmung und das Problem der „informierten Zustimmung“
Es werden nun von der Lehrperson gleichgrosse Gruppen pro Themenfeld eingeteilt (hier steht der didaktische Ansatz präventives Handeln nach Moravcik, 2015 und Offenheit von Aufgabenstellungen von Labudde, 2010 im Mittelpunkt).
Die SuS sollen nun in einem nächsten Schritt herausfinden, was mit den Begriffen, zBsp. „Deep Learning / AI“, „Predictive Policing“, “Staatliche Überwachung / Vorratsdatenspeicherung“ etc. gemeint ist. Dazu kann man neben Factsheets (im nächsten Kapitel) einige Materialien (Zeitungsartikel, Definitionen, Videos etc.) zur Verfügung stellen, welche die SuS gebrauchen können, um diesen Teilbereich des Themenfelds zu erarbeiten. Wichtig ist in diesem Teil, dass mit den Informationen keine einseitige, vorgefertigte Meinung Mitgeliefert wird (im Positiven wie auch im Negativen), sondern dass die SuS sich anhand dieder Grundlagen eine eigene Meinung dazu bilden können und entsprechend das behandelte Thema selber bewerten müssen.
Viele Einsatzmöglichkeiten und Szenarios von Big Data sind sehr stark ambivalent. Einerseits können sie unser zukünftiges Leben extrem vereinfachen und positiv beeinflussen, andererseits gibt es viele Gefahren die uns diese Technologien bringen können. Dilemmata in diesem Bereich sind typisch und können im Rahmen einer Zukunftswerkstatt extrem fruchtbar für Positioniereungen, Debatten und Meinungen sein.
Zu einem oder mehreren Themengebieten wird jede Gruppe eine digitale oder analoge Visualisierung machen, diese hochladen auf die ausgewählte Plattform und entsprechend den anderen Gruppen vorstellen. Nach dieser Visualisierung im Plenum muss jede Gruppe einen positiven und einen negativen Punkt zu jedem vorgestellten Thema aufschreiben (dies kann online mit einer Kommentarfunktion oder schriftlich passieren). Nach einer Diskussion im Plenum werden die entstandenen Pole kurz diskutiert und von allen SuS mit je drei Chancen- und Risikopunkten bewertet (Jede/r Schüler/in kann pro Thema nur 1 Chancen- bzw. ein Risikopunkt vergeben).
Diese Bewertungen werden gesammelt und kurz von der Lehrperson vorgestellt. Hauptfrage dabei: Häufen sich in einem Bereich die Chancen oder Risiken?
Nun werden neue und möglichst ausgeglichene Gruppen auf ein Themenfeld zusammengestellt. Alle SuS ordnen sich einem Thema zu das sie interessiert (hier steht die Autonomie bzw. die Freiheit und Mitbestimmungsmöglichkeiten nach Lohmann, 2014 im didaktischen Mittelpunkt). Je nach Gruppengrösse werden alle Themenfelder oder nur ausgewählte Bereiche weiter bearbeitet.
Nun ziehen sich die Gruppen mit ihrem Thema zurück. Jede Gruppe einigt sich auf eine Person, die die Moderation übernimmt (auch ein Rotationsprinzip ist denkbar). Die Moderatorin oder der Moderator der Gruppe kann die Aufgabe bei der Arbeit im Plenum übernehmen.
Jetzt geht es um die Frage: kann man die Chancen nutzen und die Kritikpunkte „in den Griff bekommen“, oder „aus der Welt schaffen“?
Dazu geht es nun zunächst darum, den Ist-Zustand zu kritisieren, was das Zeug hält. Kein Aspekt soll zurückgehalten werden, die Moderation soll die Punkte zusammenfassend festhalten und notieren (online oder analog). Zur Initiierung können folgende Fragen von der Lehrperson formuliert werden:
· Was stört dich?
· Wovor hast du Angst?
· Was macht dich wütend?
· Etc.
Dabei wird betont, dass wirklich alles, was den Teilnehmenden auf dem Herzen liegt, geäußert werden darf und soll. Außerdem soll die Kritik möglichst genau und konkret formuliert werden. Nach Sammlung der Kritikpunkte werden diese zu Problembereichen zusammengefasst. Sie werden auf Flipcharts geschrieben und an die Wand/Tafel gehängt. Die SuS wählen nun, z. B. nochmals durch Verteilen von bunten Klebepunkten, die für sie wichtigsten Themenbereiche aus. Es kristallisieren sich Schwerpunktthemen heraus, die in der anschließenden Fantasiephase bearbeitet werden.
Diese Phase folgt der großen Frage: Wie soll unser Zukunftsvision in Bezug auf den Umgang mit und die Nutzung von Big Data, bzw. Teilbereichen davon aussehen? Auch hier soll kein Aspekt, keine noch so unrealistische Idee zurückgehalten werden – in dieser Phase muss noch nichts auf seine Realisierbarkeit geprüft werden! Die einzige Spielregel lautet: Alles ist möglich!.
Als Startpunkt eignet es sich gut, die Kritikpunkte aus Phase 1 positiv zu reformulieren. Die Szenarien/das Szenario kann von den SuS auch visuell, medial oder anderweitig ausgestaltet werden, um die Vorstellung des „Dahin wollen wir“ konkreter zu machen (online oder analog).
Jetzt treffen Utopien auf Realitäten. Es geht nun darum, Antworten auf die Frage zu finden, welche Wege, Methoden, Mittel und Maßnahmen zur Verwirklichung, zur Umsetzung des utopischen Szenarios oder der utopischen Szenarien führen können.
· Welche Einschränkungen und Schwierigkeiten lassen sich identifizieren?
· Welche Maßnahmen sind unter welchen Bedingungen realistisch und umsetzbar?
· Wer kann die Gruppe dabei unterstützen?
Die SuS sind sich hier gegenseitig Korrektiv und können stets kritisch hinterfragen, wie realistisch und wirksam vorgeschlagene Mittel sind oder sein können. Je nach Verlauf der Diskussion kann sich die Lehrperson oder die Moderation ganz auf diese Rolle der Organisation der Diskussion zurückziehen und sowohl die Vorschläge als auch die Überprüfung auf ihre Verwirklichungschancen den anderen SuS in den Gruppen überlassen. Sollte die Diskussion schleppend verlaufen oder große Unsicherheit darüber bestehen, als wie realistisch einzelne Vorschläge einzuschätzen sind, kann aber natürlich auch inhaltliche Unterstützung angefordert werden.
Im Anschluss stellen alle Gruppen ihre festgehaltenen (online oder analog) Ergebnisse im Plenum vor.
Die erarbeiteten Sammlungen müssen online veröffentlicht und der Klasse zugänglich gemacht werden. Die Sammlungen der Ideen und Planungen werden allen präsentiert um anschliessend einen Ausblick bzw. eine mögliche Handlungsperspektive aufzuzeigen. Die Verwirklichungsphase soll nicht das Ende dieser Werkstattphase sein und nicht unbedingt heissen, dass die vertieften Themen nun ohne Konsequenzen in den Tiefen des Internets verloren gehen. Weitere Projekte können aus dieser Zukunftswerkstatt entstehen und auch in anderen Rahmen (zBsp. Projekt fürs ganze Schulhaus, Verbindung mit Berufswahlvorbereitung etc.) vertieft und weiterverarbeitet werden.
Die folgenden Factsheets sind als fundamentale Quellensammlung für die weitere Vertiefung in die jeweiligen Themenfelder gedacht. Sie können ausgedruckt oder online verfügbar gemacht werden. Die Quellen sind im Kapitel "Verweise" angegeben.
Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze sowie große Datenmengen. Die Lernmethoden richten sich nach der Funktionsweise des menschlichen Gehirns und resultieren in der Fähigkeit eigener Prognosen oder Entscheidungen.
Beim sogenannten Deep Learning handelt es sich um eine spezielle Methode der Informationsverarbeitung. Deep Learning ist ein Teilbereich des Machine Learnings und nutzt neuronale Netze. Zur Herstellung künstlicher Intelligenz werden Trainingsmethoden genutzt, die große Datenmengen heranziehen und analysieren. Die Funktionsweise ist in vielen Bereichen vom Lernen im menschlichen Gehirn inspiriert. Auf Basis vorhandener Informationen und des neuronalen Netzes kann das System das Erlernte immer wieder mit neuen Inhalten verknüpfen und dadurch erneut lernen. Daraus resultierend ist die Maschine in der Lage, Prognosen oder Entscheidungen zu treffen und diese zu hinterfragen. Entscheidungen werden bestätigt oder in einem neuen Anlauf geändert. In der Regel greift der Mensch beim eigentlichen Lernvorgang nicht mehr ein.
Deep Learning eignet sich für alle Anwendungen besonders gut, bei denen große Datenbestände zur Verfügung stehen, aus denen sich Muster und Modelle ableiten lassen. Als technische Grundlage des Deep Learnings dienen künstliche neuronale Netze, die während des Lernvorgangs immer wieder neu verknüpft werden.
Neuronale Netze – Grundlage für das Deep Learning
Das neuronale Netz ist eine Art künstliches Abstraktionsmodell des menschlichen Gehirns und besteht aus künstlichen Neuronen. Es verfügt über sogenannte Eingangs- und Ausgangsneuronen. Dazwischen befinden sich mehrere Schichten an Zwischenneuronen. Die Eingangsneuronen lassen sich durch Lernen auf verschiedenen Wegen über die Zwischenneuronen mit den Ausgangsneuronen verknüpfen. Je mehr Neuronen und Schichten existieren, desto komplexere Sachverhalte lassen sich abbilden.
Das grundlegende Konzept des Deep Learnings
Deep Learning lehrt Maschinen zu lernen. Die Maschine wird in die Lage versetzt, selbstständig und ohne menschliches Zutun ihre Fähigkeiten zu verbessern. Das erreicht man, indem aus vorhandenen Daten und Informationen Muster extrahiert und klassifiziert werden. Die gewonnenen Erkenntnisse lassen sich wiederum mit Daten korrelieren und in einem weiteren Kontext verknüpfen. Schließlich ist die Maschine fähig, Entscheidungen auf Basis der Verknüpfungen zu treffen.
Durch kontinuierliches Hinterfragen der Entscheidungen erhalten die Informationsverknüpfungen bestimmte Gewichtungen. Bestätigen sich Entscheidungen, erhöht sich deren Gewichtung, werden sie revidiert, verringert sich die Gewichtung. Zwischen der Eingabeschicht und der Ausgabeschicht entstehen immer mehr Stufen an Zwischenschichten und Verknüpfungen. Über den eigentlichen Output entscheidet die Anzahl der Zwischenschichten und deren Verknüpfung.
Abgrenzung des Deep Learnings vom rein maschinellen Lernen
Deep Learning ist zwar ein Teilbereich des Machine Learnings, lässt sich aber dennoch gut vom rein maschinellen Lernen abgrenzen. Der entscheidende Unterschied besteht darin, dass beim maschinellen Lernen der Mensch in die Analyse der Daten und den eigentlichen Entscheidungsprozess eingreift. Beim Deep Learning sorgt der Mensch lediglich dafür, dass die Informationen für das Lernen bereitstehen und die Prozesse dokumentiert sind. Die eigentliche Analyse und das Ableiten von Prognosen oder Entscheidungen überlässt er der Maschine selbst. Der Mensch hat keinen Einfluss auf die Ergebnisse des Lernprozesses. Es lässt sich im Nachhinein nicht mehr vollständig zurückverfolgen, auf Basis welcher genauen Muster eine Maschine eine bestimmte Entscheidung getroffen hat. Zudem werden die Entscheidungen ständig hinterfragt und die Entscheidungsregeln selbstständig optimiert.
Anwendungsbereiche für das Deep Learning
Deep Learning ist überall dort gut geeignet, wo sich große Datenmengen nach Mustern und Modellen untersuchen lassen. Deep Learning kommt daher im Rahmen künstlicher Intelligenz häufig für die Gesichts-, Objekt- oder Spracherkennung zum Einsatz. Bei der Spracherkennung ist es beispielsweise dank des Deep Learnings möglich, dass die Systeme ihren Wortschatz selbstständig mit neuen Wörtern oder Wortwendungen erweitern. Ein bekanntes Beispiel für eine solche Arbeitsweise ist der intelligente Sprachassistent Siri von Apple. Weitere Anwendungsbereiche sind das Übersetzen von gesprochenen Texten, die erweiterte künstliche Intelligenz in Computerspielen, das autonome Fahren oder die Vorhersage des Kundenverhaltens auf Basis von Daten eines CRM-Systems.
Mit Predictive Policing werden Maßnahmen bezeichnet, die den Anspruch erheben, aufgrund von aufwändigen Datenanalysen mit einer relativ hohen Wahrscheinlichkeit Vorhersagen über zukünftiges kriminelles Handeln machen zu können. Steven Spielbergs Film „Minority Report“ aus dem Jahr 2002 dient immer wieder als Illustration. Allerdings funktioniert die „Pre-Crime Einheit“ dort anders – und der Film dürfte Jugendlichen 2017 und später wohl überwiegend unbekannt sein. Oft geht es bei Predictive Policing darum, statistische Angaben aus Polizeistatistiken mit ihrer räumlichen Verortung zu koppeln, um so „Hot Spots“ der Kriminalität zu identifizieren. Das ist aber nur ein Beispiel. Es gibt zahlreiche andere Anwendungsszenarien und -modalitäten, wie Matthias Monroy 2015 auf netzpolitik.org schreibt. Der Artikel gibt einen guten Überblick zum Stand der Entwicklungen in Deutschland Anfang 2015. Er positioniert sich aber eher kritisch. Eine positive Einschätzung bietet das Unternehmen zukunftsInstitut und betont dabei solche Sicherheitstechnologien als hoch profitablen Wachstumsmarkt. Die Aussage, dass positive Effekte belegt seien, wird dabei durch keine der zitierten Studien gestützt. Andere Quellen sind bezüglich der Wirksamkeit deutlich vorsichtiger, wie etwa Eva Wolfangels Beitrag in Spektrum vom Juni 2016. Der Artikel auf Wikipedia sowie ein Beitrag des Bayrischen Rundfunks, Einbrecher auf Diebestour: Mehr Sicherheit mit Precobs? (5 Minuten), geben einen allgemeinen Einblick. Precobs ist ein Projekt eines deutschen Unternehmens im Auftrag des Landeskriminalamts Baden-Württemberg und wird auch in Bayern genutzt, wie eine Reportage des Magazins Wired darstellt.
Als problematisch wird bei Predictive Policing vor allem angesehen, dass bestehende soziale Ungleichheiten verstärkt werden können. Das gilt zum Beispiel dann, wenn in Stadtteilen mit hoher migrantischer und/oder arbeitsloser Bevölkerung verstärkt Polizeikontrollen durchgeführt werden und in der Folge – natürlich – die Zahlen an registrierten Delikten ansteigt. Steigt die Zahl der Delikte, werden die Kontrollen weiterhin zunehmen, während kriminelles Handeln andernorts weniger sichtbar wird. Zudem werden vielfach Daten aus Polizeistatistiken eingesetzt, die auf den subjektiven Eindrücken von Beamtinnen und Beamten basieren, nicht aber von gerichtlichen Verurteilungen ausgehen. Jenseits der Form wie Daten gewonnen werden, um Wahrscheinlichkeiten für kriminelles Verhalten zu ermitteln, stellt sich die Frage, ob es grundsätzlich möglich sein sollte, Menschen zu verdächtigen, zu beobachten oder festzunehmen, bevor sie tatsächlich kriminell werden.
Im Hinblick auf digitale Überwachung pendelt die Diskussion stets zwischen
Sicherheitsversprechen einerseits und Privatsphäre andererseits. Die Entwicklung in den Jahren seit 9/11 waren diesbezüglich rasant. Eines der großen politischen Themen war dabei die Vorratsdatenspeicherung, bei der Mobilfunk- und Internetbetreiberfirmen für einen bestimmten Zeitraum alle Verbindungsdaten ihrer Nutzer*innen speichern müssen. Das Thema ist rechtlich sehr umstritten. So hat der Europäische Gerichtshof 2016 das deutsche Gesetz zur Vorratsdatenspeicherung für europarechtswidrig erklärt. Der Bundesdeutsche
Verfassungsgerichtshof wird sich in diesem Jahr allerdings nicht mit der Verfassungsbeschwerde gegen das Gesetz befassen, weshalb die Betreiber ab Juli 2017 vorerst mit der Speicherung beginnen müssen. Während der Verein digitalcourage sich dazu sehr kritisch positioniert, geht die geplante Regelung einem Vertreter der deutschen Gewerkschaft der Polizei, Sascha Braun, nicht weit genug. Verschiedene Meinungen und Argumente zum Thema werden auf der Seite der Bundeszentrale für politische Bildung dokumentiert.
Die Vorratsdatenspeicherung ist nur ein prominentes Beispiel für digitale Überwachung. Damit ist in den meisten Fällen Überwachung durch staatliche Instanzen gemeint (Polizei und verschiedene Geheimdienste). Große Streitpunkte sind dabei die Aufhebung der Unschuldsvermutung, die Selbstzensur der Bürger*innen und daher die Beschneidung von Privatsphäre und Demokratie, die Frage nach der Notwendigkeit richterlicher Beschlüsse für die Einsicht in Daten, sowie die Aussagekraft von Metadaten (wer hat wann, wo, mit wem usw. telefoniert, gemailt etc.) im Gegensatz zu Inhaltsdaten (was wurde kommuniziert).
Gerne wird zum Kulturwandel der Privatsphäre der Wahrnehmungsunterschied zwischen Stasi und NSA oder BND herangezogen. Ein weiteres Beispiel sind die deutlich verschiedenen Reaktionen auf die Volkszählungsabsichten der Regierung 1983 und den NSA-Skandal 2013. Damals gab es erhebliche Proteste und ebenfalls Verfassungsrechtsbeschwerden, die zu einemUrteil gegen die geplante Volkszählung führten. Im Vergleich dazu nahmen sich die Widerstände in der Bevölkerung gegen die umfassende Überwachung, die durch die Veröffentlichungen Edward Snowdens 2013 bekannt wurden, eher gering aus. Eine Übersicht dazu bietet Patrick Beuth in der Zeit. Einen ironischen Beitrag dazu liefert Alexander Lehmann mit seinem Video „Wir lieben Überwachung!“
Digitale Daten sind nicht bloß eine Quelle für Informationen und Erkenntnis, ihnen wird auch Wert zugeschrieben. Wie genau das jeweils aufgefasst wird, unterscheidet sich durchaus. Mal werden Daten als Währung bezeichnet, mal als Rohstoff (der durch ‚mining‘ gewonnen wird bzw. in dem solches ‚mining‘ betrieben werden kann), mal als einfache Ware, die hergestellt und mit der gehandelt wird usw. Jedenfalls haben Daten einen Wert, der es attraktiv macht, sie zu sammeln und mit ihnen zu handeln. Wenn es in der Praxis einen Tauschwert der Daten ‚gibt‘, sie also in Geld getauscht werden können, muss es doch auch einen Gebrauchswert dieser Daten geben. Wofür können sie denn genutzt werden? Wenn wir uns auf legale Nutzungsweisen konzentrieren, gibt es vor allem eine dominante Antwort: personalisierte Werbung. Das Versprechen, das mit der Verwertung der Daten (im doppelten Sinne) einhergeht, lautet: Je mehr ich über Menschen weiß, desto zielgerichteter kann ich ihnen Produkte anbieten, die sie umso wahrscheinlicher kaufen werden. Die Werbewirtschaft spielt nicht nur für Google und Facebook eine große Rolle, die ihren Werbekund*innen verspricht, potenzielle Käufer*innen sehr zielsicher adressieren zu können, sondern auch für alle möglichen Werbetreibenden, die ihr Werbebudget effizienter einsetzen wollen, oder für Unternehmen, die ihre aktuellen und potenziellen Kund*innen genauer kennenlernen wollen, wie Versicherungen, Banken etc..
In der Folge hat sich eine große ökonomische Sphäre gebildet, die Datenhandel betreibt, d.h. personenbezogene digitale Daten von verschiedenen Anbietern aufkauft, zusammenstellt, sortiert und, neu und zum ‚Verzehr‘ bereit verpackt, weiterverkauft. Da die Aussagekraft von Big Data (Analytics) vor allem in der Quantität der Daten liegt, ist es gerade in diesem Feld naheliegend, dass große Akteure auf dem Markt eine besonders gute Position einnehmen. Eines der ganz großen Unternehmen ist der Datenhändler Acxiom, der im August 2016 laut NDR Profile über mehr als 500 Millionen Nutzer*innen vorrätig hielt. Dieser Datenhandel wird unterschiedlich bewertet. Manche halten das für grundsätzlich problematisch, weil wir die Kontrolle über ‚unsere‘ Daten (oder wem gehören die dann eigentlich?) verlieren. Andere halten es nur für fair, wenn wir unsere Daten (und die Verwertungsrechte) gegen die scheinbar kostenlose Nutzung von Plattformen, Messenger-Apps, Suchmaschinen eintauschen.
In den letzten Jahren stiegen die Nutzungszahlen von Self-Tracking-Geräten und -Anwendungen erheblich an. Mit Self-Tracking werden gemeinhin Praktiken bezeichnet, die mit digitalen Mitteln Daten über eigene Körperfunktionen sammeln und auswerten. Dafür können Smartphones, Wearables wie Smartwatches oder auch Fitnessarmbänder eingesetzt werden. Diese sind meist mit einem weiteren Gerät sowie mit Servern der Anbieter verbunden, auf welchen die Auswertung dargestellt und gespeichert wird. Die Motivation für Self-Tracking liegt meistens darin, mehr Erkenntnisse über sich selbst zu erlangen und das eigene Verhalten so zu ändern, dass man gesünder oder leistungsfähiger wird. In vielen Fällen (auch, weil das technisch einfach zu lösen ist) bezieht sich solches Tracking auf physische Daten wie Schritte, Puls, Schlafrhythmus usw., aber auch der Einsatz von Datenanalyse zur Vermessung von emotionalen und psychischen Zuständen (z.B. durch Auswertung von Schlafverhalten, Tippverhalten, Essverhalten und anderer Parameter) ist möglich.
Positive Stimmen heben vor allem die Faktoren Selbstbestimmung und Mündigkeit in der Nutzung der eigenen Daten hervor. Ein Beispiel dafür ist die Unternehmerin Inga Bergen in einem Interview mit dem Stifterverband. Kritik wird an solchen Praktiken des Self-Tracking vor allem auf zwei Ebenen laut. Einmal geht es dabei um Datenschutz und Datensicherheit der Nutzer*innen gegenüber den (fast ausschließlich) kommerziellen Anbietern. Zum anderen wird die Tendenz der Selbstoptimierung problematisiert, wie etwa in einem ZDF-Beitrag mit dem Titel „Schluss mit dem Optimierungswahn“ (3 Minuten). Außerdem können Self-Tracking-Geräte zu problematischen Nutzungsformen etwa durch Versicherungen führen, wie ein kontrovers-Beitrag des Bayrischen Rundfunks darstellt. Zu diesem Thema finden sich eher wenige neutrale und nüchterne Auseinandersetzungen.
Detailliertere (und relativ ausgewogene) Ausführungen zu Self-Tracking und zur medienpädagogischen Perspektive auf das Phänomen finden sich in einem Working Paper zu Algorithmen und Self-Tracking auf der Site des jfc Medienzentrum und der Themenseite der Bundeszentrale für politische Bildung.
Der Ausdruck Filter Bubble wurde durch das gleichnamige Buch des Autors Eli Pariser im Jahr 2011 bekannt. Damit ist gemeint, dass das, was wir online, in sozialen Netzwerken und Suchmaschinen sehen, mehr und mehr einer Personalisierung unterworfen ist. Je nach unseren bereits analysierten Interessen und Vorlieben werden uns weitere Angebote (Musik, Infos, Waren, …) angeboten. Sie verstärken die bereits vorhandenen Interessen. Problematisch sei das, weil sich die Weltsichten der Menschen eher von einander entfernen und dadurch so etwas wie ein idealer öffentlicher Diskurs zur politischen Meinungsbildung nicht mehr möglich sei (siehe auch den Beitrag im ARD Mittagsmagazin zum Thema). Dadurch würden die eigenen Ansichten eher nicht mehr irritiert und in Frage gestellt, sondern stets bestätigt und verfestigt – auch für Bildungsprozesse keine günstige Voraussetzung. In seinem TED-Vortrag fasst Eli Pariser die zentrale Argumentation zusammen (engl. mit dt. Untertiteln). An dem Argument gibt es aber auch scharfe Kritik (z.B. von Christoph Behren im November 2016 in der SZ). Trifft die Diagnose tatsächlich zu? Das heißt, werden die Weltsichten bzw. die
Informationen, mit denen Menschen in Kontakt kommen, wirklich immer einheitlicher? Es gibt Untersuchungen, die gegenteiliges nahelegen. Und war eine gewisse Polarisierung nicht schon immer inhärenter Bestandteil von ‚Öffentlichkeit‘, etwa indem ich mich dafür entscheide, die BILD-Zeitung statt der Frankfurter Allgemeinen Zeitung oder der taz zu lesen? Ist hier also die Technik ein Problem? Und wäre die Lösung entsprechend, die Algorithmen anders zu programmieren, oder wird hier nicht vielmehr etwas problematisiert, dem auf gesamtgesellschaftlicher, politischer usw. Ebene begegnet werden müsste? Im zweiten Fall wäre eine technische ‚Lösung‘ keine Lösung des Problems.
Unabhängig davon, welche Position in der Diskussion eingenommen und vertreten wird, gibt es individuelle Handlungsmöglichkeiten die Informationen, die in Suchanfragen, Newsfeeds etc. angezeigt werden, zu ‚depersonalisieren‘, wie ein Artikel des Technik-Magazins t3n aufzeigt. Mit diesen Möglichkeiten könnten wir „Filter-Blasen“ aufstechen.
Das Thema klingt erstmal unfassbar langweilig: Datenschutzgesetzgebung. Direkt oder indirekt haben wir aber alle in unserer Internetnutzung regelmäßig damit zu tun. Mit jedem Mal, wenn wir Allgemeinen Geschäftsbedingungen (AGBs oder Terms of Service) zustimmen, unterzeichnen wir rechtlich gesehen einen Vertrag, der in den meisten Fällen an die geltenden nationalen und internationalen legalen Rahmenbedingungen angepasst ist. Diese AGBs ändern sich periodisch, wenn der Anbieter selbst Änderungen vornehmen möchte, oder eben, wenn sich die gesetzliche Grundlage für ihre Arbeit ändert. In dieser Form sind die Unternehmen rechtlich gesehen auf der sicheren Seite, wenn die Nutzer*innen zugestimmt haben und die Betreiber sich daran halten. Allerdings sind die AGBs, also die Verträge, auf deren Grundlage die ‚Zusammenarbeit‘ abläuft, oft sehr lang, nicht unmittelbar verständlich und werden ohnehin kaum gelesen.
Ein bekanntes Beispiel ist der Fall des Unternehmens WhatsApp mit seinen AGBs, die natürlich geändert wurden, nachdem Facebook die Firma übernommen hatte. Verschiedene Änderungen wurden stark kritisiert, wie hier auf der Seite mimikama. In bekannteren Fällen gibt es eher Expert*innen, die einen geschulten Blick haben und problematische Aspekte öffentlich benennen können. Aber können wir uns lückenlos auf so einen Mechanismus verlassen?
Gehen wir von der juristischen Idee der „informationellen Selbstbestimmung“ aus. Damit wird das Recht von Bürger*innen in Deutschland bezeichnet über die Nutzung ‚ihrer‘ persönlichen digitalen Daten zu befinden, ganz nach dem Motto: „Ich möchte selbst entscheiden können, wer meine Daten bekommt und was damit gemacht wird.“ Das ist ein wichtiges Recht im Hinblick auf Datenschutz und Privatsphäre, das 1983 durch den Bundesverfassungsgerichtshof verbrieft wurde (siehe Staatliche Überwachung / Vorratsdatenspeicherung). Allerdings wird es durch neueste digitale Technologien ganz schön auf die Proble gestellt, denn es bedeutet eine ganze Menge Verantwortung und Arbeit. Die folgenden Fragen zeigen auf, wo aus Sicht der ‚Dateninhaber*innen‘ (aber auch für Unternehmen) mögliche Problemfelder liegen können:
Kann ich genau verstehen, was technisch mit meinen Daten passiert? Kann ich mögliche gewünschte oder unerwünschte Folgen angemessen einschätzen? Darf ich das als minderjährige Person selbst machen oder muss – rein rechtlich gesehen – jedes Mal eine erziehungsberechtigte Person für mich eine Einverständniserklärung abgeben? Muss ich bei jeder Übertragung meiner Daten erneut mein Einverständnis geben, einen Vertrag unterzeichnen usw.? Wann sind ‚meine Daten‘ eigentlich ‚meine‘ Daten, z.B. wenn diese digitalen Daten erst durch die Nutzung einer Plattform oder App, die nicht mir gehört, entstehen? Sind anonymisierte Daten dann völlig unproblematisch? Oder ist die nachhaltige Anonymisierung von Daten gar nicht mehr so leicht vorzunehmen, weil es zu viele Datenpunkte gibt, die ‚meinen‘ Datensatz wiedererkennbar werden lassen?
Erziehungsdirektion Kanton Bern. (April 2018). Von https://www.erz.be.ch abgerufen
Labudde, P. (2010). Fachdidaktik Naturwissenschaft - 1.-9. Schuljahr. Bern: Haupt Verlag.
Lena Gauweiler, T. H. (Juli 2017). Bundeszentrale für politische Bildung. Von http://www.bpb.de/lernen/digitale-bildung/medienpaedagogik/bigdata/253169/zukunftswerkstatt abgerufen
Litzel, N. (Mai 2018). Big Data Insider. Von Was ist Deep Learning?: https://www.bigdata-insider.de/was-ist-deep-learning-a-603129/ abgerufen
Lohmann, G. (2014). Mit Schülern klarkommen. Professioneller Umgang mit Unterrichtsstörungen und Disziplinkonflikten. Berlin: Cornelsen Verlag.
Moravcik, S. (2015). 99 Tipps: Konflikte souverän lösen. Berlin: Cornelsen Verlag.
Müller-Oppliger, S. (Juni 2015). Lehrplan 21: Mit den Bloom-Taxonomien Kompetenzen erreichen. Die neue Schulpraxis, S. 4-6.
Sieben, G. (2015). Big Data – eine Arbeitshilfe für die Jugendarbeit. Köln: jfc Medienzentrum e.V.
Thomann, G. (2003). Wahrnehmen - Beurteilen - Beraten in Ausbildungssituationen. Luzern: AEB.
Wikipedia. (Mai 2018). Von https://de.wikipedia.org/ abgerufen
Projektidee: Zukunftswerkstatt
Es soll eine Zukunftswerkstatt entstehen mit einigen Posten, welche die SuS zu lösen haben. Hier sollen verschiedenste Methoden (Reflektion, Argumentation, Recherche, Übungen etc.) gebraucht werden. Die Zukunftswerkstatt soll Big Data Analytics (Untersuchung von grossen Mengen an Daten unterschiedlicher Art) und seine gesellschaftlichen Folgen auf einer individuellen und auch überindividuellen, politischen Ebene thematisieren. Ziel der Zukunftswerkstatt ist es, einen Rahmen zu schaffen, in dem es möglich ist, Chancen und Risiken dieser Entwicklungen abzuschätzen und sich zugleich in der Vorstellungskraft nicht von den Einschränkungen des Bestehenden behindern zu lassen.
Lehrplanbezug
Konzept Zukunfstwerkstatt
Konzepterklärung aus Wikipedia:
"Die Methode umfasst drei Hauptphasen, sowie eine Vorphase und eine Nachbereitung.
Nach der Verwirklichung sollte nach einem vorher bestimmten Zeitraum wieder eine Zukunftswerkstatt zu diesem Thema stattfinden, in der die vorhergehende Zukunftswerkstatt nach den drei Phasen abgehandelt wird. Es entsteht ein Regelkreis, in dem immer wieder kontrolliert wird, ob der Sollwert mit dem Istwert übereinstimmt. Dies wird in der Grundlagenliteratur als Permanente Werkstatt bezeichnet.
Vorphase: Beginnen / Hineinfinden
Hier wird die Gruppe „gegründet“, eine gute Atmosphäre gegenseitigen Vertrauens geschaffen. Dazu gehören eine ungezwungene Gruppenstimmung zu begünstigen, die thematischen Interessen auszuloten und methodische sowie zeitliche Planung der Zukunftswerkstatt offenzulegen.
Phase 1: Beschwerde / Kritik
Hier wird von den Teilnehmern Unmut, Kritik, negative Erfahrungen zum gewählten Thema geäußert. Dies sollte möglichst frei von Zwängen sein. Es geht dabei weniger um eine Analyse der Probleme, als um eine Bestandsaufnahme für die Weiterarbeit. Es bietet sich ein Brainstorming auf Kärtchen an, die dann, wie bei der Moderationsmethode, nach Themen geordnet werden. Ziel dieser Phase ist es, Ärger, Wut und Enttäuschung loszuwerden und damit frei für kreatives, phantasievolles und konstruktives Arbeiten in den Phasen 2 und 3.
Phase 2: Phantasie / Utopie
Hier ist die Kreativität jedes einzelnen gefragt. Man soll das Utopische denken. Ein Anfangssatz wäre z. B.: „Es wäre schön, wenn …“. Killerphrasen wie „Das ist doch unmöglich!“ sind dabei unbedingt zu vermeiden. Hier darf und soll fantasiert werden. Es bietet sich wieder ein Brainstorming auf Moderationskarten an, die dann, wie bei der Moderationsmethode, nach Themen geordnet werden.
Phase 3: Verwirklichung / Praxis
Hier werden die ersten beiden Phasen verknüpft. Es muss abgeschätzt werden, was realisierbar ist. Es bietet sich eine Gruppenarbeit und die Hinzuziehung qualifizierter Fachleute an. Andere Moderationsteams verzichten auch hier bewusst auf externe Fachleute, sondern sehen die Teilnehmenden selbst als Experten in der Sache an. Verschiedene Verfahren zur Projektplanung, zur Durchsetzung von (gesellschaftlicher) Veränderung und zur Qualifizierung in der Anwendung zyklischer Gruppenprozesse können hier eingeübt werden.
Nachbereitungen
Den (vorläufigen) Abschluss gestaltet der Moderator. Die Ziele, Vorgehensweisen und Ergebnisse werden noch einmal kurz zusammengefasst und eingeordnet. Unter der Überschrift: Wie geht es weiter? wird über den möglichen Fortgang der Werkstattarbeit nachgedacht. Gegebenenfalls werden neue Treffen vereinbart. Am Ende geben die Teilnehmer ein Feedback wie sie die gemeinsame zeit erlebt haben."
Ziel und Themen
Ziel der Zukunftswerkstatt ist es, einen Rahmen zu schaffen, in dem es möglich ist, Chancen und Risiken dieser Entwicklungen abzuschätzen und sich zugleich in der Vorstellungskraft nicht von den Einschränkungen des Bestehenden behindern zu lassen. Die Methode folgt dabei dem Schema: Kritik am Ist-Zustand, Vision eines Soll-Zustandes und Planung von Wegen, den Soll-Zustand zu erreichen. Die Zukunftswerkstatt bezieht sich spielerisch und planerisch auf die gegenwärtige Gesellschaft. Damit weist die Methode in Richtung einer kollektiven, politischen Handlungsperspektive.
Mögliche Themen für die Bearbeitung in der Zukunftswerkstatt:
• “Staatliche Überwachung / Vorratsdatenspeicherung“
• „Daten als Ware“
• „Self-Tracking und Selbstoptimierung / Quantified Self“
• „Social Bots und Filter Bubble / Personalisierte Weltsichten durch das Internet?“
• „Informationelle Selbstbestimmung und das Problem der ,informierten Zustimmung’
Timeline:
20.03 Arbeit am Konzept
27.03 Methode, didaktische Umsetzung und Aufbau Zukunftswerkstatt
04.04 Posten erstellen
10.04 Weiterarbeiten
17.04 Anleitung erstellen
24.04 Präsenz, Zwischenresultate präsentieren,Weiterarbeiten
01.05 Unterrichtsplanung
08.05 Weiterarbeiten
15.05 Screencast erstellen
22.05 Projektende und Abgabe Zukunftswerkstatt / Screencast
Besprechung:
Chancen + Risiken
Papierlos, Artefakte
Posten während Arbeit besprechen