FutureWeaver: Testzeit-Computing für Multi-Agenten optimiert

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Leistungsfähigkeit großer Sprachmodelle lässt sich durch die Skalierung der Testzeit-Rechenleistung deutlich steigern – ohne zusätzliche Trainingsschritte. Methoden wie wiederholtes Sampling, Selbstverifikation und Selbstreflexion haben gezeigt, dass sie die Erfolgsquote bei Aufgaben signifikant erhöhen, indem sie mehr Rechenzeit für die Inferenz bereitstellen.

In Multi-Agenten-Systemen gestaltet sich die Anwendung dieser Techniken jedoch schwierig. Es fehlt an klaren Mechanismen, um Rechenressourcen gezielt für die Zusammenarbeit der Agenten zu verteilen, die Testzeit-Skalierung auf kooperative Interaktionen auszudehnen und die Ressourcen unter strengen Budgetbeschränkungen zu verteilen.

FutureWeaver bietet hierfür ein neues Framework zur Planung und Optimierung der Testzeit-Rechenallokation in Multi-Agenten-Systemen bei festem Budget. Das Konzept der modularisierten Zusammenarbeit definiert wiederverwendbare Agenten-Workflows als aufrufbare Funktionen, die automatisch aus vergangenen Interaktionsmustern durch Selbstspiel-Reflexion abgeleitet werden.

Das System nutzt eine zweistufige Planungsarchitektur, die sowohl den aktuellen Aufgabenstatus berücksichtigt als auch zukünftige Schritte vorhersagt, um die Rechenressourcen optimal zu verteilen. Experimente an komplexen Agenten-Benchmarks zeigen, dass FutureWeaver die Leistung gegenüber bestehenden Baselines in allen getesteten Budgetbereichen übertrifft und damit die Effektivität von Multi-Agenten-Kollaboration bei der Optimierung der Inferenzzeit demonstriert.

Ähnliche Artikel