AI-SearchPlanner: Modulare Agenten-Suche mit Pareto-optimiertem RL
Eine neue Veröffentlichung auf arXiv (2508.20368v1) präsentiert AI‑SearchPlanner, ein Reinforcement‑Learning‑Framework, das die Leistungsfähigkeit von festgehaltenen QA‑Modellen durch gezielte Suchplanung verbessert.
Der Ansatz adressiert ein bekanntes Problem: aktuelle RL‑basierte Suchagenten setzen meist ein einzelnes großes Sprachmodell ein, das sowohl die Suchplanung als auch die Beantwortung von Fragen übernimmt. Diese Ein‑Modell‑Strategie limitiert die gleichzeitige Optimierung beider Aufgaben.
AI‑SearchPlanner löst das, indem es die Architektur aufteilt. Ein kleines, trainierbares LLM übernimmt die Planung der Suchanfragen, während ein großes, unverändertes Modell (z. B. GPT‑4) die eigentliche Beantwortung liefert. Dadurch kann die Planung unabhängig von der QA‑Qualität optimiert werden.
Das System baut auf drei Kerninnovationen auf: 1) Trennung von Planner und Generator, 2) Dual‑Reward‑Alignment, das sowohl die Qualität der Antworten als auch die Effizienz der Suchanfragen berücksichtigt, und 3) Pareto‑Optimierung, die die Planungseffizienz und den Kostenaufwand gleichzeitig maximiert.
Umfangreiche Tests auf realen Datensätzen zeigen, dass AI‑SearchPlanner bestehende RL‑basierte Suchagenten in Bezug auf Effektivität und Effizienz übertrifft. Zudem demonstriert es eine starke Generalisierungsfähigkeit über verschiedene frozen QA‑Modelle und Datenbereiche hinweg.