Adaptive Test‑Time‑Reasoning mit zweiphasiger Suche steigert Genauigkeit und Effizienz
Neues Forschungspapier von Forschern auf arXiv zeigt, wie große Sprachmodelle (LLMs) ihre Leistung bei Rechen‑ und Codeaufgaben deutlich verbessern können. Durch die Einführung einer zweiphasigen Testzeit‑Skalierung werden die Schritte des Denkprozesses in Planung und Ausführung getrennt, wodurch die Suche gezielter und effizienter wird.
Traditionelle Methoden nutzen Baum‑basierte Suchen mit Verifikatoren, die mögliche Lösungswege erweitern und anhand von Belohnungsmodellen auswählen. Diese Ansätze sind zwar genau, aber oft ineffizient, weil sie die Planung und Ausführung nicht voneinander trennen. Das neue Verfahren zerlegt die Rechenpfade in zwei separate Phasen und führt für jede Phase eigene Belohnungsmodelle ein. Dadurch kann die Suche gezielt Pläne und deren Ausführung unabhängig voneinander optimieren.
Ein weiteres Highlight ist der dynamische Budget‑Allokationsmechanismus. Er verteilt die Rechenressourcen adaptiv, basierend auf den Belohnungsfeedbacks. So kann das System frühzeitig bei sicheren Schritten stoppen und die verbleibende Rechenzeit auf schwierigere Abschnitte konzentrieren. Experimente an mathematischen und Code‑Generierungs‑Benchmarks zeigen, dass die Methode die Genauigkeit steigert und gleichzeitig unnötige Berechnungen reduziert.
Diese Fortschritte markieren einen wichtigen Schritt in Richtung effizienterer KI‑Modelle, die nicht nur genauer, sondern auch ressourcenschonender arbeiten. Das neue Verfahren bietet damit eine vielversprechende Grundlage für zukünftige Anwendungen in Bereichen, die komplexe Planung und Ausführung erfordern.