<strong>Knowledge Model Prompting steigert die Leistung von LLM bei Planungsaufgaben</strong>
Große Sprachmodelle (LLM) haben traditionell Schwierigkeiten, komplexe logische Schlüsse zu ziehen und Aufgaben zu planen. Zwar wurden zahlreiche Prompting‑Techniken entwickelt, darunter das beliebte Chain‑of‑Thought‑Verfahren, doch die Wirksamkeit dieser Ansätze wird zunehmend hinterfragt.
In der vorliegenden Studie wird das Task‑Method‑Knowledge‑Framework (TMK) – ein Konzept aus der kognitiven und Bildungswissenschaft – auf LLMs angewandt. TMK zeichnet sich dadurch aus, dass es kausale, teleologische und hierarchische Denkstrukturen explizit erfasst und Aufgaben in klar definierte Teilaufgaben zerlegt. Im Gegensatz zu anderen hierarchischen Modellen liefert TMK zudem Erklärungen dafür, warum bestimmte Aktionen gewählt werden.
Die Autoren testen TMK‑Prompting anhand des PlanBench‑Benchmarks im Blocksworld‑Domänenbereich. Ziel war es, zu prüfen, ob die strukturierte Prompting‑Methode LLMs dabei unterstützt, komplexe Planungsprobleme in handhabbare Sub‑Tasks zu zerlegen. Die Ergebnisse sind beeindruckend: Auf zuvor schwer lösbaren, symbolischen Aufgaben erzielte das Modell mit TMK‑Prompting eine Genauigkeit von 97,3 % – ein deutlicher Anstieg gegenüber den 31,5 % ohne diese Technik.
Diese Befunde deuten darauf hin, dass TMK‑Prompting die Leistungsfähigkeit von LLMs bei Planungsaufgaben erheblich steigern kann und damit einen vielversprechenden Ansatz für zukünftige Anwendungen darstellt.