Neues MAB-Modell bestimmt Mathe‑Frage‑Schwierigkeit ohne NLP

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

In einer aktuellen Veröffentlichung auf arXiv (2508.19014v1) wird ein innovatives Verfahren vorgestellt, das die Schwierigkeit mathematischer Aufgaben ausschließlich aus den Leistungsdaten der Lernenden bestimmt. Das Modell, genannt APME (Approach of Passive Measures among Educands), nutzt ein Multi‑Armed Bandit‑Framework, das mit Reinforcement Learning arbeitet. Dabei werden die erreichten Noten und die dafür benötigte Zeit herangezogen, ohne dass sprachliche Merkmale oder Expertenlabels erforderlich sind.

Der Schlüssel zum Erfolg liegt im Einsatz des inversen Koeffizienten der Variation als risikoadjustierte Kennzahl. Diese Metrik berücksichtigt nicht nur den durchschnittlichen Lernerfolg, sondern auch die Streuung der Ergebnisse, was besonders in symbolischen Bereichen wie Algebra von entscheidender Bedeutung ist. Das Ergebnis ist ein erklärbares und skalierbares System, das sich nahtlos in adaptive Bewertungssysteme integrieren lässt.

Die Wirksamkeit des Ansatzes wurde an drei heterogenen Datensätzen getestet. In allen Fällen erzielte das Modell einen durchschnittlichen R²‑Wert von 0,9213 und einen durchschnittlichen RMSE von 0,0584 – ein deutliches Indiz für hohe Genauigkeit und Robustheit. Im Vergleich zu klassischen Regressionsmodellen, NLP‑basierten Ansätzen und IRT‑Modellen übertraf APME die Konkurrenz konsequent, insbesondere in rein symbolischen Prüfungsformaten.

Die Ergebnisse unterstreichen zwei zentrale Erkenntnisse: Erstens hat die Heterogenität der Aufgaben einen starken Einfluss auf die wahrgenommene Schwierigkeit, und zweitens ist die Varianz der Lernergebnisse genauso wichtig wie der Mittelwert für die adaptive Aufgabenverteilung. Pädagogisch ausgerichtet identifiziert das Modell die Zone der nächsten Entwicklung nach Vygotsky, indem es Lernende gezielt mit Aufgaben konfrontiert, die ihrem aktuellen Leistungsniveau entsprechen.

Ähnliche Artikel