← Zurück zur Wissensdatenbank Bias & Ethik

Algorithmischer Bias

Stand: März 2026

Warum KI oft sexistisch oder rassistisch ist – und wie wir das im Unterricht nutzen können.

Was ist Bias?

KIs lernen aus Internetdaten. Das Internet spiegelt unsere Gesellschaft wider – inklusive aller Vorurteile. Eine KI ist wie ein Papagei, der oft unreflektiert Klischees nachplappert.

Beispiel:
Fragt man eine Bild-KI nach "CEO", zeigt sie meist weiße Männer in Anzügen.
Fragt man nach "Pflegekraft", zeigt sie meist Frauen.

Red-Flag-Checkliste für den Unterricht

Stellen Sie Schülern diese Fragen, wenn sie KI-Output bewerten:

Unterrichtsidee: Bias-Jagd

Aufgabe:

  1. Lass ChatGPT eine Geschichte über einen "erfolgreichen Arzt" und eine "fürsorgliche Unterstützung" schreiben.
  2. Analysiere die Geschlechterrollen.
  3. Verschuche, die KI durch Prompts dazu zu bringen, das Klischee zu brechen ("Schreibe die Geschichte neu, aber brich mit Geschlechterstereotypen").