Zentrale Erkenntnisse (Kurzüberblick für die Praxis)

  • KI ist gekommen, um zu bleiben. Ihre gesellschaftliche Relevanz wird teils mit der industriellen Revolution verglichen – Schulen sollten Kompetenzen aufbauen, nicht ausweichen.

  • KI nicht für „Wissen“, sondern für „Denken“ nutzen. Keine Fakten- oder Bilderproduktion als Wahrheit (Bias, Reproduktion von Stereotypen), sondern für Struktur, Ideensuche, Perspektivenvergleich, Skripte und Unterrichtsabläufe. In Prävention & Demokratiebildung: KI hilft, Formate zu planen, nicht „die Wahrheit“ zu liefern.

  • Gefahr: Hochqualitative Falschinformation. KI macht Desinformation schneller, billiger, überzeugender – inklusive Bild-/Video-Fakes. Unterrichtlich: Fake erkennen lassen (Rückwärtssuche, Profilanalyse, Faktenchecker) und Entstehungsbedingungen besprechen.

  • Interessen erkennen: Plattformen wollen Aufmerksamkeit (ökonomisch), politische Akteur:innen manipulieren Stimmungen, Influencer verfolgen Eigeninteressen (Reichweite, Geld, Status). Diese Logiken immer mitvermitteln.

  • Quellenkritik 2.0 etablieren: Impressum prüfen, Profile analysieren, Rückwärtssuche, Faktenchecker (z. B. dpa/Correctiv), www.der-newstest.de – und KI als Werkzeug zur Seriositätsprüfung einsetzen (z. B. „Erkläre mir mögliche Manipulationen“).

  • Problematische Inhalte im Klassenraum bearbeiten. Zeigen, kontextualisieren, entzaubern – so wird Privatraum-Konsum (Bett/Toilette) in eine pädagogische Auseinandersetzung überführt.

  • Storytelling von unten statt Debatten-Scharmützel. 90-Sekunden-Clips mit Hook, Spannung, Call-to-Action; Frageleitfaden „Was ist heute passiert?“; Schüler:innen sprechen lassen – Schule stellt Ressourcen.

  • Narrativ-biografisch fragen (nicht nur argumentieren). Bedürfnisse hinter Positionen sichtbar machen („Was hat das für dich bedeutet?“) und so Radikalisierungsdynamiken entschärfen.

 

Zu Beginn stand eine klare Einordnung: KI ist ein Strukturwandel, keine Mode. Viele vergleichen ihre Bedeutung mit der industriellen Revolution. Für Schulen heißt das: Kompetenzen aufbauen, Leitplanken setzen und pädagogisch gestalten – nicht auf Verbote hoffen.

Tag 1 – Workshop mit Valentin Scholz: KI verstehen, Risiken einhegen, Quellenkritik schulen

Valentin Scholz (JFC Köln, „Medien gegen Extremismus“) führte ein in Funktionsweise, Chancen und Grenzen von KI. Quintessenz für die Schule: KI ist ein Werkzeug. Sie eignet sich, um Strukturen zu erstellen (Lernzielraster, Ablaufpläne, Perspektivenvergleich, Skriptentwürfe), nicht um „Wahrheit“ zu produzieren. Denn generative Systeme halluzinieren, sind voreingenommen und reproduzieren Stereotype – etwa bei Bildanfragen („schöne Frau“) durch Rückgriff auf verzerrte Datensätze. Für Radikalisierungsprävention bedeutet das: KI hilft beim Didaktisieren, nicht beim „Fakten-Finden“.

Deutlich wurde auch die Gefahrenseite: Desinformation in hoher Qualität (Texte, Bilder, Audio/Video) und die Tendenz, KI-Antworten über Menschen zu stellen („KI als Autorität“). Statt Abschottung empfiehlt Scholz Quellenkritik 2.0: Wer spricht? Was wird behauptet? Wo erscheint es? Wie wird es vermittelt? Warum gerade jetzt? Dazu Tools wie Rückwärtssuche, Impressum-/Profilcheck, dpa-Faktencheck/Correctiv, Wayback Machine, Übersetzungstools – und ja: KI selbst als Prüfinstanz („Erkläre mir die möglichen Manipulationen in diesem Clip“). Begleitend hilft der Nachrichten-Selbsttest unter der-newstest.de.

Ein zweiter, zentraler Block war die Interessenanalyse: Plattformen monetarisieren Aufmerksamkeit; Algorithmen priorisieren Emotionen; politische Akteure und Influencer nutzen dies für Agenden. Diese Logiken sollen Schüler:innen kennen, damit sie Inhalte nicht mit Wirklichkeit verwechseln.

Arbeitsphase: Die Teilnehmenden legten TikTok-„Wegwerfaccounts“ an, simulierten Interessen Jugendlicher, analysierten Feeds und produzierten 90-Sekunden-Clips. Ergebnisse reichten vom Kameraschwenk von Mülltonnen zur Deutschlandflagge (Mechanik: Probleme → Nationalismus als Lösung) bis zur Parodie typischer Erfolgs-/Beauty-/Männlichkeits-Talks. Effekt: Mechanismen werden sichtbar, ohne moralischen Zeigefinger.

Praktische Hausregeln für Medienkompetenz: Pushs aus, Apps entrümpeln, „no cookies in my pockets“, Vorschläge/Ads nicht füttern, Menschen mit anderer Meinung folgen, einen eigenen Relevanzkompass entwickeln. Diese alltagsnahen Schritte reduzieren Sogeffekte und erhöhen Urteilskraft.

In einer weiteren Gruppenarbeit suchten Teams gezielt KI-generierte Inhalte, prüften sie (Rückwärtssuche, Profilanalyse, Faktenchecker) und setzten KI als Erklärhilfe ein („Erkenne die Manipulation“). Ein Team schnitt demonstrativ einen „Person-weg“-Cut als Manipulationshinweis; ein anderes parodierte einen radikalen Prediger (Frage „Darf man als Muslim in Schweinfurt leben?“); ein drittes zeigte Faktencheck-Wege konkret auf. Ergebnis: Sichtbar machen, wie’s gemacht ist, entzieht radikalen Clips einen Teil ihrer Wirkung.

 

Tag 2 – Workshop mit Fabian Reicher: Storytelling von unten & Online-Identitäten

Fabian Reicher (Mobile Jugendarbeit/„Storytelling von unten“) setzte am Medienalltag der Jugendlichen an: Überangebot führt zu Überforderung; TikTok ist für viele primäre Informationsquelle; rechte Akteure nutzen geringe Moderation und die Taktik „flood the zone with shit“. Algorithmen begünstigen Polarisierung – Aufmerksamkeit, Zugehörigkeit und Rollenvorbilder sind starke Treiber der Nutzung.

In Gruppen reflektierten die Teilnehmenden zunächst eigene Online-Identitäten (Nutzung, Motive, Häufigkeit) und anschließend die vermuteten Identitäten der Schüler:innen (Aussehen, Geld, Tanz, Selbstoptimierung, Sport, Ernährung, Kunst). Deutlich wurden Geschlechterunterschiede in Feeds und Funktion der Nutzung (Aufmerksamkeit, Bestätigung, Zugehörigkeit, Rollenbilder). Konsequenz: Feedback statt Frontalargument, neugierige Nachfragen („Welche Bedeutung hat dieses Video für dich?“), Antworten als Gesprächsanlass nutzen.

Reichers Gegenmodell zur Empörungsökonomie ist das „Storytelling von unten“: Kurzvideos (≈90 s) mit Hook – Spannung – Call to Action, Leitfrage „Was ist heute passiert?“, begleitet von Slides/Memes/Texttafeln. Ziel: Peers sprechen lassen, Vielfalt als Stärke zeigen, niedrigschwellig bleiben, Eltern bei Videoarbeit mit Schüler:innen früh informieren. Beispiele und Ablauf (Ziele, Zielgruppe, Format, Partizipation) wurden als Action-Plan konkretisiert; ergänzend wurden Minikampagnen-Skizzen („Sketches gegen Ungleichwertigkeitserzählungen“) und eine Video-Ideensammlung bereitgestellt.

Zentral war auch die narrativ-biografische Gesprächsführung: Nicht im Meinungskampf verhaken, sondern Erfahrungen erzählen lassen („Wie war die Situation? Was geschah dann?“). Diese Haltung fördert Reflexion, reduziert Abwehr und öffnet Wege in die präventive Beziehungsarbeit – besonders bei heiklen Themen.

Konkrete Praxisimpulse

  • Klassenregel „Medienkompetenz“ einführen: Pushs aus, Vorschläge/Ads nicht anklicken, wöchentlicher Mini-Check („Was war wirklich relevant?“). Vorlage mit KI entwerfen – Inhaltlich selbst füllen.

  • Quellenkritik-Routine etablieren: Jede Woche 1 Clip: Impressum/Profil prüfen, Rückwärtssuche, Faktenchecker, KI-Analyse („wo könnte manipuliert sein?“).

  • 90-Sekunden-Format starten: „Was ist heute passiert?“ – Schulbezug, Hook, Call to Action. Schüler:innen produzieren, Schule stellt Technik/Raum; Einverständnisse sichern.

  • Narrativ fragen statt debattieren: „Erzähl mal die Situation … was hat’s für dich bedeutet?“ – Ergebnis dokumentieren, nächste Stunde anknüpfen.

  • Minikampagne planen: Ziel, Zielgruppe, Format, Partizipation festlegen; 3–5 Reels zu einem Thema (z. B. respektvoller Umgang auf dem Schulhof).