3
⚖️ Bias in KI-Systemen
-
KI-Systeme übernehmen oft Vorurteile (Bias) aus den Trainingsdaten. Daher gilt:
-
- KI spiegelt gesellschaftliche Stereotype und einseitige Meinungen wider, da sie mit vielen (auch fehlerhaften) Daten arbeitet.
- Ergebnisse immer auf Neutralität und Vielfalt überprüfen.
- Im Kollegium und mit Schüler über mögliche Verzerrungen sprechen.
- Beispiele für Bias aufzeigen, z. B. geschlechtsspezifische oder kulturelle Verzerrungen.
-
Merke: Kritisches Hinterfragen der KI-Antworten und bewusster Umgang verhindert falsche Schlussfolgerungen!
-
⚙ a3