KI Modelle halluzinieren. Sie erfinden Fakten, Zitate und Zusammenhänge, die überzeugend klingen, aber falsch sind. Das ist kein Bug, sondern ein Feature ihrer Funktionsweise (Wahrscheinlichkeitsrechnung statt Faktenwissen).
Gefahr für Novizen
Für Lernende ohne Vorwissen sind Halluzinationen gefährlich. Sie können Wahrheit und Dichtung nicht unterscheiden. Deshalb gilt: Je weniger Expertise, desto gefährlicher die unbegleitete KI-Nutzung.
Didaktisches Potenzial: "Hallucination Hunt"
Wir können den Spiess umdrehen. Lassen Sie die KI bewusst Texte zu einem Thema generieren, das die Klasse gerade gelernt hat, und fordern Sie die Schüler auf, die Fehler zu finden ("Finde die 3 eingebauten Fehler"). Das fördert kritisches Lesen und Faktencheck-Kompetenz stärker als das Konsumieren korrekter Texte.