LLMs zeigen eher Befehlsbefolgung als echte Zusammenarbeit – Studie enthüllt
Eine neue Untersuchung aus dem arXiv-Repository beleuchtet, wie Menschen mit großen Sprachmodellen (LLMs) bei komplexen Aufgaben interagieren. Anstatt als echte Partner aufzutreten, folgen die Modelle überwiegend Befehlen und zeigen wenig echte Kooperation.
Die Forscher*innen analysierten die Interaktionen von Studierenden mit einem LLM, indem sie qualitative Codierungen mit Netzwerk- und Sequenzanalysen kombinierten. Dabei wurden Muster der Zusammenarbeit, deren Entwicklung und der Zusammenhang mit der Aufgabenkomplexität sowie den Leistungen der Lernenden kartiert.
Das Ergebnis: Ein überwältigendes „Instructive“-Muster dominiert. Die Interaktionen sind stark auf das wiederholte Anordnen von Schritten ausgerichtet, anstatt auf eine partnerschaftliche Verhandlung. Oft entstehen lange Diskussionsstränge, in denen die Anfragen der Studierenden nicht mit den Antworten des Modells übereinstimmen – ein Hinweis auf fehlende Synergie.
Interessanterweise konnte keine signifikante Korrelation zwischen Aufgabenschwierigkeit, Promptlänge und Noten der Studierenden gefunden werden. Das deutet darauf hin, dass die Modelle zwar Anweisungen befolgen, aber keine tiefere kognitive Unterstützung bieten.
Die Studie legt nahe, dass aktuelle LLMs eher als Befehlsausführer denn als kognitive Partner fungieren. Sie betont die Notwendigkeit, KI-Systeme zu entwickeln, die auf kognitive Ausrichtung und echte Zusammenarbeit ausgelegt sind, um Lernprozesse wirkungsvoller zu unterstützen.