Neue Methode TORSO nutzt interne Logik von LLMs ohne Beispiele
Forscher haben eine neue Technik namens Template‑Oriented Reasoning (TORSO) vorgestellt, die große Sprachmodelle (LLMs) dazu bringt, ihre eigenen Denkprozesse zu nutzen, um Aufgaben zu lösen – ganz ohne manuell erstellte Beispiele. Diese Herangehensweise soll die Abhängigkeit von wenigen, oft kostenintensiven Prompt‑Beispielen reduzieren und gleichzeitig die Konsistenz über verschiedene Aufgaben hinweg verbessern.
Traditionell werden LLMs mit wenigen Beispielen angeregt, um komplexe Probleme schrittweise zu bearbeiten. Dabei bleibt jedoch ein großer Teil der internen Rechenkraft ungenutzt, weil die Modelle stark auf die vorgegebenen Beispiele angewiesen sind. TORSO greift dagegen auf ein strukturiertes Template zurück, das das Modell dazu anregt, seine inhärente Logik zu aktivieren und eigenständig passende Antworten zu generieren.
Experimentelle Tests zeigen, dass TORSO auf einer Vielzahl von Benchmark‑Tests starke Ergebnisse erzielt und dabei nachvollziehbare Begründungen liefert. Damit eröffnet die Methode neue Möglichkeiten, LLMs effizienter und vielseitiger einzusetzen, ohne dass für jede Aufgabe neue Prompt‑Beispiele erstellt werden müssen.