SLIM: Subtrajectory-Level Elimination steigert KI-Logik

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neues arXiv-Papier mit dem Titel „SLIM: Subtrajectory-Level Elimination for More Effective Reasoning“ präsentiert einen innovativen Ansatz zur Optimierung der Argumentationsprozesse großer Sprachmodelle. Die Autoren zeigen, dass nicht jeder Schritt in den langen Rechenpfaden, die Modelle bei komplexen Fragen durchlaufen, tatsächlich zur Verbesserung der Endergebnisse beiträgt.

In den letzten Monaten hat die Forschung im Bereich der komplexen KI‑Reasoning stark von Test‑Time‑Scaling profitiert. Modelle wie die o1/o3/o4‑Serie und DeepSeek‑R1 erzeugen bei der Beantwortung einer Frage umfangreiche Rechenpfade, die Exploration, Reflexion, Rückverfolgung und Selbstverifikation umfassen. Doch die Analyse dieser Pfade hat ergeben, dass bestimmte Unterabschnitte – sogenannte Subtrajectories – die Gesamtleistung negativ beeinflussen können.

Um dieses Problem anzugehen, entwickelt das Team ein „5+2“-Framework. Zunächst werden fünf von Menschen festgelegte Kriterien verwendet, um suboptimale Subtrajectories systematisch zu identifizieren. Anschließend wird geprüft, ob deren Entfernung den weiteren Verlauf des Argumentationsprozesses nicht stört. Auf dieser Basis wird ein Sampling‑Algorithmus erstellt, der Datensätze auswählt, deren Rechenpfade möglichst frei von suboptimalen Segmenten sind.

Die experimentellen Ergebnisse sind überzeugend: Durch den Einsatz von SLIM lassen sich die suboptimalen Subtrajectories während der Inferenz um 25,9 % reduzieren. Darüber hinaus erreicht das Verfahren auf hochkomplexen Aufgaben eine durchschnittliche Genauigkeit von 58,92 %. Diese Fortschritte deuten darauf hin, dass gezielte Eliminierung von störenden Pfadsegmenten die Effizienz und Zuverlässigkeit großer Sprachmodelle deutlich steigern kann.

Ähnliche Artikel