Studierende fordern menschliche Werte bei KI-Bewertung: Fairness, Vertrauen
In einer aktuellen Untersuchung haben 27 Informatikstudenten ihre Eindrücke von KI‑Bewertungssystemen in einem Abschlussprojekt mit blockbasiertem Programmieren geteilt.
Die Forscherinnen und Forscher nutzten den ethischen Rahmen von Jobin (2019), um die Dimensionen Fairness, Vertrauen, Konsistenz und Transparenz zu analysieren. Dabei wurden die von der KI generierten Rückmeldungen mit den ursprünglich von Lehrenden vergebenen Noten verglichen.
Die Ergebnisse zeigen, dass die Studierenden Bedenken hinsichtlich des fehlenden Kontextverständnisses und der fehlenden Personalisierung der KI äußerten. Sie forderten, dass Bewertungssysteme menschliche Werte wie Empathie und Flexibilität widerspiegeln.
Auf Basis dieser Erkenntnisse empfehlen die Autoren, KI‑Tools als ergänzende Hilfsmittel unter menschlicher Aufsicht einzusetzen und dabei die Prinzipien von Fairness, Vertrauen und Transparenz konsequent zu berücksichtigen.
Die Studie liefert damit wertvolle Impulse für die Gestaltung ethisch fundierter Bewertungspraktiken und betont die Bedeutung der Stimmen der Lernenden bei der Entwicklung von KI‑gestützten Lernumgebungen.