← Zurück zum Blog
Forschung

KI-Halluzinationen im Unterricht

Stand: März 2026

AI Hallucination Visualization

Risiko oder Lernchance? Wie Lehrpersonen mit fehlerhaften KI-Ausgaben umgehen können.

10. Dezember 2025 · 5 Minuten Lesezeit

KI Modelle halluzinieren. Sie erfinden Fakten, Zitate und Zusammenhänge, die überzeugend klingen, aber falsch sind. Das ist kein Bug, sondern ein Feature ihrer Funktionsweise (Wahrscheinlichkeitsrechnung statt Faktenwissen).

Gefahr für Novizen

Für Lernende ohne Vorwissen sind Halluzinationen gefährlich. Sie können Wahrheit und Dichtung nicht unterscheiden. Deshalb gilt: Je weniger Expertise, desto gefährlicher die unbegleitete KI-Nutzung.

Didaktisches Potenzial: "Hallucination Hunt"

Wir können den Spiess umdrehen. Lassen Sie die KI bewusst Texte zu einem Thema generieren, das die Klasse gerade gelernt hat, und fordern Sie die Schüler auf, die Fehler zu finden ("Finde die 3 eingebauten Fehler"). Das fördert kritisches Lesen und Faktencheck-Kompetenz stärker als das Konsumieren korrekter Texte.


Weiterführende Links