WideSeek-R1: Breite Skalierung mit Multi-Agenten für umfassende Informationssuche
Die jüngsten Fortschritte bei großen Sprachmodellen konzentrieren sich überwiegend auf die Tiefenskalierung, bei der ein einzelner Agent komplexe Aufgaben mit mehrstufiger Logik und Tool‑Nutzung löst. Wenn Aufgaben jedoch breiter werden, verschiebt sich der Engpass von der individuellen Kompetenz hin zur organisatorischen Kapazität.
Aktuelle Multi‑Agenten‑Systeme setzen häufig auf handgefertigte Arbeitsabläufe und sequentielle Interaktionen, die die Parallelisierung von Aufgaben nicht optimal nutzen. Dadurch bleibt die Effizienz bei umfangreichen Informationssuchaufgaben begrenzt.
WideSeek‑R1 löst dieses Problem mit einem Lead‑Agent‑Subagent‑Framework, das mittels Multi‑Agenten‑Reinforcement‑Learning (MARL) trainiert wird. Ein gemeinsamer Sprachmodell‑Agent teilt sich isolierte Kontexte und spezialisierte Werkzeuge, während Lead und Subagenten gleichzeitig optimiert werden.
Das System wurde auf einem sorgfältig zusammengestellten Datensatz von 20.000 breit angelegten Informationssuchaufgaben trainiert. In umfangreichen Tests erzielte WideSeek‑R1‑4B einen F1‑Score von 40,0 % auf dem WideSearch‑Benchmark, was dem Ergebnis des ein‑Agenten‑Modells DeepSeek‑R1‑671B entspricht. Zudem steigt die Leistung von WideSeek‑R1‑4B kontinuierlich, je mehr Subagenten parallel eingesetzt werden, was die Wirksamkeit der Breitenskalierung unterstreicht.
WideSeek‑R1 demonstriert damit, dass die Kombination aus skalierbarer Orchestrierung und paralleler Ausführung neue Maßstäbe für die effiziente Informationssuche setzen kann.