3
⚖️ Bias in KI-Systemen
  • KI-Systeme übernehmen oft Vorurteile (Bias) aus den Trainingsdaten. Daher gilt:
    • KI spiegelt gesellschaftliche Stereotype und einseitige Meinungen wider, da sie mit vielen (auch fehlerhaften) Daten arbeitet.
    • Ergebnisse immer auf Neutralität und Vielfalt überprüfen.
    • Im Kollegium und mit Schüler über mögliche Verzerrungen sprechen.
    • Beispiele für Bias aufzeigen, z. B. geschlechtsspezifische oder kulturelle Verzerrungen.
  • Merke: Kritisches Hinterfragen der KI-Antworten und bewusster Umgang verhindert falsche Schlussfolgerungen!
  • ⚙ a3