Neue Skala misst kritisches Denken bei der Nutzung von generativer KI

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Generative KI‑Tools sind inzwischen fester Bestandteil von Arbeit und Lernen. Ihre hohe Sprachkompetenz, aber auch ihre Undurchsichtigkeit und die Neigung zu Halluzinationen machen es unerlässlich, dass Nutzer die von KI erzeugten Inhalte nicht einfach akzeptieren, sondern kritisch prüfen.

In einer umfangreichen Studie mit 1 365 Teilnehmenden wurde ein neues Messinstrument entwickelt: die 13‑Punkte‑Skala „Critical Thinking in AI Use“. Sie erfasst die dispositionalen Neigungen, die Quelle und den Inhalt von KI‑Ergebnissen zu verifizieren, die Funktionsweise der Modelle zu verstehen und die breiteren Implikationen der KI‑Nutzung zu reflektieren.

Die Skala besteht aus drei Hauptfaktoren – Verifikation, Motivation und Reflexion – und wurde in sechs Studien konsequent validiert. Dabei zeigte sie hohe interne Konsistenz, Test‑Retest‑Reliabilität, starke Faktorladungen und Geschlechtsinvarianz. Zudem korrelierte sie positiv mit Offenheit, Extraversion, positivem Affekt und der Häufigkeit der KI‑Nutzung.

Ein besonderer Befund ist die Kriteriumsvalidität: Personen mit höheren Scores setzen vermehrt vielfältige Verifikationsstrategien ein, beurteilen die Wahrhaftigkeit von KI‑Ergebnissen genauer und reflektieren intensiver über verantwortungsvolle KI‑Anwendung. Diese Ergebnisse liefern ein klareres Bild davon, warum und wie Menschen bei der Nutzung generativer KI ein kritisches Urteilsvermögen einsetzen.

Ähnliche Artikel