MGV: Metakognitive Theorie formalisiert – neues Modell für Sprachmodelle
Eine neue Architektur namens Monitor‑Generate‑Verify (MGV) bringt die seit langem diskutierte Metakognition in die Praxis von Sprachmodellen. Durch die formale Umsetzung von Flavells und Nelson & Narens’ Theorien liefert MGV ein strukturiertes Konzept, das die bisher fehlende Überwachungsfunktion in Generate‑Verify‑Systemen ergänzt.
Generate‑Verify‑Modelle, die sich auf das iterative Generieren und Überprüfen von Antworten konzentrieren, haben bislang die entscheidende Frage ignoriert, wann und wie das Modell mit dem Denken beginnen soll. Diese Lücke führt zu dem sogenannten Prefix‑Dominanz‑Trap, bei dem Modelle frühzeitig einen suboptimalen Denkpfad wählen und selten wieder zurückkehren. Der Effekt ist ein Verlust von etwa 20 % an Genauigkeit.
MGV schließt diese Lücke, indem es ein explizites Monitoring einführt. Vor dem ersten Generationsschritt sammelt das Modell metakognitive Signale wie Schwierigkeitsabschätzungen und Vertrauenswerte. Während der Verifikationsphase werden diese Signale genutzt, um das Monitoring selbst zu verfeinern. So entsteht ein dynamischer Kreislauf, der das Modell kontinuierlich an die Qualität seiner eigenen Überlegungen anpasst.
Obwohl die Arbeit noch keine empirische Bestätigung vorweisen kann, stellt sie die erste systematische Übersetzung fundamentaler Metakognitionstheorien in ein rechnerisches Modell dar. Das Ergebnis ist ein präzises Vokabular, um Fehlfunktionen von Reasoning‑Systemen zu analysieren, und konkrete architektonische Vorschläge für zukünftige Test‑Time‑Reasoning‑Designs.
MGV bietet damit einen vielversprechenden Ansatz, um die Leistungsfähigkeit von Sprachmodellen zu steigern und die Grenzen der aktuellen Generate‑Verify‑Paradigmen zu überwinden.