Didaktische KI-Nutzung
https://ebildungslabor.de/blog/didaktische-ki-nutzung/
Ich hatte heute einen sehr schönen Workshop am Katholisch-Sozialen Institut in Siegburg mit Kolleg*innen aus der katholischen Erwachsenen- und Familienbildung in NRW. Das Thema war KI, aber in einer sehr weitergedachten Form. Konkret haben wir uns unter dem Workshoptitel ‚didaktische KI-Nutzung‘ die Frage gestellt, wie wir als pädagogisch tätige Menschen in unseren Lernangeboten mit dem Thema KI gut umgehen können.
Meine Struktur für den Workshop war ein Vierklang mit Verstehen, Nutzen, Reflektieren und Transformieren. Wir haben immer jeweils selbst erkundet, wie wir mit unterschiedlichen Methoden dazu lernen können. Auf der Meta-Ebene haben wir dann im nächsten Schritt weiter gedacht, was wir davon wie auf unsere jeweils eigenen Lernangebote transferieren können.
In diesem Blogbeitrag stelle ich meine Vorgehensweise im Workshop vor und teile die dafür erstellten Materialien zur offenen Weiternutzung.
Einstieg
Wir starteten den Workshop mit einem Kartentausch mit Thesen zu KI. Diese hatte ich in Interaktion mit einem KI-Sprachmodell mit diesem einfachen und gut weiternutzbaren Prompt entwickelt:
Hier ist eine Workshopbeschreibung: [die veröffentlichte Workshopbeschreibung]. Gib mir eine Liste mit 20 möglichst prägnanten und vielfältigen Thesen, die in diesem Workshop diskutiert werden könnten.
In Paargesprächen wurde dann zu den erhaltenen Thesen erstens reflektiert, inwieweit man der These zustimmt und zweitens welche Relevanz sie für die eigene Arbeit hat. Auf diese Weise stiegen wir nicht nur inhaltlich in das Thema ein sondern die Teilnehmenden lernten sich auch untereinander kennen.
Vierklang zur KI-Didaktik
Anschließend leitete ich in den weiteren Part des Workshops über. Hier erläuterte ich zunächst, warum ich den sehr breiten Ansatz des beschriebenen ‚Vierklangs‘ gewählt hatte. Denn schließlich könnte man sich bei der Frage ja einfach auch ’nur‘ auf Nutzung beschränken. In diesem Fall hätten wir einfach ein paar Prompts miteinander ausprobiert. Mir war aber stattdessen wichtig, dass es weniger um isolierte KI-Nutzung und mehr um eine ermächtigende Lerngestaltung für Handlungsfähigkeit in einer zunehmend KI-geprägten Welt geht. Dazu braucht es neben klugen Nutzungsstrategien vor allem ein Verständnis der Technologie, Befähigung zu einer mündigen Entscheidung, was die Reflexion ihrer Risiken und Schäden voraussetzt, und schließlich eine Form des Lernens, die auf aktive Veränderungskompetenz zielt.
Als Mini-Murmelrunde an diesen Kurzimpuls schloss sich eine ‚Klebepunktaufgabe‘ an. Ich hatte dazu auf einem Flipchart den klassischen Hype Cycle, wonach bei Technologie-Einführung meistens zu Beginn große Begeisterung herrscht, es dann zunehmend zu Enttäuschungen kommt, bevor ein produktiver Umgang erlernt wird und die Kurve wieder nach oben geht, erweitert. Insbesondere hatte ich dargestellt, dass die weitere Entwicklung der Technologie für mich durchaus offen ist. Untersuchungen, wonach z.B. ein KI-Tool wie Perplexity, das vormals fast alle Fehlinformationen erkannte, aber mittlerweile nur noch knapp 50 Prozent, können zum Beispiel diese Einschätzung begründen. Die Teilnehmenden tauschten sich aus und klebten dann ihre Punkte. Das entstandene Bild zeigt, dass wir es mit einer abwartenden bzw. vorsichtig optimistischen Gruppe zu tun hatten, an der auch einzelne Einsteiger*innen in das Thema beteiligt waren.
Ergebnis der Klebepunkt-Reflexion
- Verstehen
Für das Verstehen der aktuell diskutierten KI-Technologie in Form von großen Sprachmodellen finde ich das Prinzip der Mustererkennung (= es gibt eine riesige Datenbasis, in der Muster erkannt und dann genutzt werden können) und das Prinzip der Wahrscheinlichkeitsberechnung (= der Output wird so generiert, dass der nach Wahrscheinlichkeit am besten passende Inhalt angezeigt wird) wichtig. Diese beiden Prinzipien lassen sich ganz ausgezeichnet mit Online-Tools wie AutoDraw, der Teachable Machine, Emoji Scavenger Hunt oder Sookia GPT erproben. Ich stellte diese Tools kurz im Plenum vor, bevor wir uns Zeit zum Ausprobieren nahmen. Dazu waren die Tools direkt in den Online-Materialien verlinkt und beschrieben.
Für das Verstehen der Technologie finde ich die vier genannten Tools sehr gut, aber noch nicht ausreichend. Mir fehlt dabei der Aspekt, dass die verwendeten Algorithmen natürlich nie nur Blackbox sind, sondern menschliche Gestaltung z.B. über Systemprompts oder verwendete Filter, die uns als Nutzer*innen in den meisten Fällen leider nicht transparent sind.
Um diesen Aspekt sehr anschaulich zu verstehen, versuchten wir uns an einem analogen Nachbau eines Large Language Models in Kleingruppen. Die Gruppen bestanden dabei aus mindestens 6 Personen. Eine Person davon war Nutzer*in und gab die Prompts vor. Eine zweite Person war in Verantwortung für das Modell und konnte also über Systemprompts und Filtermechanismen entscheiden. Der Rest der Gruppe war die Datenbasis, also im Prinzip Inhalte im Internet.
Die nutzende Person erhielt eine Liste mit möglichen Prompts, aus denen sie auswählen konnte. Daneben konnte sie natürlich auch eigene Prompts überlegen. Die Prompt-Liste hatte vor allem den Sinn, dass das Muster (= gesucht waren Prompts, die in wenigen Wörtern oder maximal einem Satz beantwortet werden können, sonst wird das Spiel zu langwierig) deutlich wird.
Die zweite Person erhielt Anregungen sowohl zur hauptsächlichen Sortierung als auch zu möglichen Filtern. Auch diese Person konnte natürlich statt diesen vorgegebenen Ideen auch eigene Regeln überlegen. Für den Rest der Gruppe wurde die Entscheidung nicht transparent gemacht.
Verwendete Rollenkarten für ein analoges LLM
Dann brauchte nur noch die „Datenbasis“ Karteikarten und Kugelschreiber – und das analoge Sprachmodell war einsatzbereit! Sehr schnell hintereinander wurde nun mehrmals gepromptet und ein Output zurückgespielt.
Das lief so ab:
Nutzer*in sagte ihren Prompt.
Datenbasis schrieb jeweils unabhängig voneinander auf, was dazu potentiell im Internet dazu zu finden sein könnte.
Besitzer*in sammelte alle Karten ein, wählte gemäß der getroffenen Sortierentscheidung und Filter aus – und las dann die ausgewählte Karte laut vor und gab sie an die Nutzer*in zurück.
Dann äußerte die Nutzer*in den nächsten Prompt …
Ergebnis der ‚Datenbasis‘ zum Prompt: ‚Werbespruch für kalten Kaffee‘ – vor der Auswahl durch den Algorithmus
Wir nahmen uns Zeit für 5-6 Durchläufe. Danach erzählten die Besitzer*innen, was ihre Entscheidungen für den Algorithmus gewesen waren. Manches davon war sicherlich sehr realitätsfern, z.B. wenn immer der längste Text ausgesucht wurde. Anderes dann aber durchaus denkbar, z.B. wenn als Filter gesetzt war, dass religiöse Bezüge gefiltert wurden.
Wir konnten uns anschließend gut dazu austauschen, dass nicht der Algorithmus eines KI-Sprachmodells per se ein Problem ist. Denn das ist einfach gesprochen eben die Anweisung, nach der der Output dargestellt wird. Sondern die Tatsache, dass die Gestaltung dieser Algorithmen in den meisten Fällen intransparent und undemokratisch ist.
Schön finde ich an diesem Spiel erstens die sehr einfache Umsetzung. Zweitens kann es Freude machen, weil natürlich auch viel Quatsch-Potential dabei ist. Und drittens lassen sich die Beispielprompts und Sortierregeln sehr gut für unterschiedliche Kontexte anpassen.
Als Anregung teile ich hier meine genutzten Vorlagen:
Rollenkarten für ein analoges LLMHerunterladen
- Nutzen
Die Herausforderung des Verstehens habe ich ganz bewusst an den Anfang gesetzt. Denn ohne Verständnis der Technologie ist für mich keine kluge Nutzung möglich. Darauf aufbauend konnten wir dann sehr gut unterschiedliche Interaktionsmöglichkeiten erproben. Ich stellte dafür mein bereits vor einigen Monaten entwickeltes Koordinatensystem vor:
Es gab dann zu jedem Feld eine kurze Erklärung sowie einen exemplarischen Prompt zum Ausprobieren und zur anschließenden Anpassung in Kleingruppen.
Ich nutzte diesen Part außerdem, um meinen KI-Server als eine selbstbestimmte und mündige Form einer KI-Infrastruktur vorzustellen.
- Reflektieren
Nach der Mittagspause stiegen wir mit einer Kurzfassung der Geschichte ‚The ones who walk away from Omelas‘ von Ursula K. Le Guin in die Herausforderung der Reflexion ein. Die Geschichte stammt schon aus den 70er Jahren und eröffnet im Kontext von KI die Frage, wer von Technologie profitiert und wer verliert und wie damit umgegangen werden kann, dass eine Technologie, die sehr viel Schaden anrichtet, Teil unserer Lebensrealität ist.
Für die Nutzung habe ich die Geschichte von Ursula K. Le Guin in eine eigene Version gebracht, die deutlich kürzer als das Original ist, auf Deutsch erzählt wird und das KI-Thema ein bisschen mit aufnimmt, um einen direkten Bezug herzustellen. Vor dem Workshop hatte ich diese Fassung als Audio eingesprochen, so dass wir hier gemeinsam zuhören konnten. Wenn du diesen Impuls auch nutzen willst, kannst du dazu diesen H5P-Inhalt verwenden:
Die Geschichte leitete dann über zu einem Walk&Talk mit mehreren, inhaltlichen Aspekten zu den Gefahren, Risiken und Schäden von KI-Technologie. Es ging uns dabei nicht nur darum, diese Aspekte gemeinsam zu reflektieren. Zugleich war Raum, um zu überlegen, wie sich das didaktisch in Lernangeboten (gerade mit einer bildungsfernen Zielgruppe oder mit Nicht-Pädagog*innen) aufgreifen lässt.
Walk&Talk Briefumschläge
Für das Thema Bias zeigte ich hierfür ein paar Möglichkeiten bei der Bildgenerierung. Gemeinsam experimentierten wir dann noch mit Fortsetzungsgeschichten, an denen sich gut die Reproduktion von Geschlechterstereotypen in KI-Sprachmodellen zeigen lässt. Die entsprechenden Prompts zur Weiternutzung findest du (mitsamt der Walk & Talk Anregungen) in den Online-Materialien zum Workshop.
- Transformieren
Damit waren wir auch schon bei der letzten Herausforderung, der Transformation, angelangt. Diese Herausforderung gab zugleich die Ge