KI-Modelle meistern mathematische Rätsel dank neuer „Trap‑Aware“ Technik

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Wissenschaftler haben eine neue Methode entwickelt, die große Sprachmodelle dabei unterstützt, komplexe mathematische Aufgaben korrekt zu lösen. Durch die Technik namens TAAR – Trap‑Aware Adaptive Restart – können Modelle frühzeitig erkennen, wenn sie in einen sogenannten „Thinking Trap“ geraten, also in einen Denkfehler, der sich selbst verstärkt und schwer zu korrigieren ist.

Bei der Analyse von langen, schrittweisen Erklärungen („Long Chain‑of‑Thought“) zeigte sich, dass 89 % der Fehler auf solchen Traps beruhen. TAAR nutzt ein Diagnosemodell, das aus Teilsequenzen zwei Signale vorhersagt: einen Trap‑Index, der angibt, wo die fehlerhafte Argumentation beginnt, und eine Escape‑Wahrscheinlichkeit, die bestimmt, ob und wie stark das Modell neu gestartet werden soll.

Im Einsatz wird die fehlerhafte Sequenz vor dem vorhergesagten Trap abgeschnitten und das Modell neu gestartet. Für besonders hartnäckige Fälle werden zusätzliche Maßnahmen ergriffen, etwa eine höhere Temperatur beim Sampling oder ein strukturierter Neustart‑Suffix. Auf anspruchsvollen Tests wie AIME24, AIME25, GPQA‑Diamond, HMMT25 und BRUMO25 erzielte TAAR eine deutliche Leistungssteigerung, ohne dass die Basis‑Modelle selbst angepasst werden mussten.

Die Ergebnisse zeigen, dass gezielte Test‑time‑Kontrolle die Zuverlässigkeit von KI‑gestützten Rechenaufgaben erheblich verbessert und damit einen wichtigen Schritt in Richtung vertrauenswürdiger, skalierbarer KI‑Lösungen darstellt.

Ähnliche Artikel