GraphLLM beschleunigt dank zweistufig optimierter sparsamer Abfragen
Neuste Forschungen zeigen, dass große Sprachmodelle (LLMs) enorme Vorteile für Aufgaben auf textattributierten Graphen bieten, indem sie erklärende Features liefern. In der Praxis bleiben sie jedoch durch den enormen Rechen- und Kostenaufwand bei wiederholten Abfragen stark eingeschränkt. Ein Beispiel: Für einen mittelgroßen Datensatz mit 48 000 Knoten würde die reine Erzeugung von Erklärungen mit einem Standardverfahren wie TAPE Tage an Rechenzeit beanspruchen.
Um dieses Problem zu lösen, präsentiert das Team die Methode Bilevel-Optimized Sparse Querying (BOSQ). BOSQ ist ein generisches Framework, das gezielt entscheidet, wann ein LLM tatsächlich abgefragt werden muss. Durch eine adaptive, spärliche Abfrage-Strategie werden unnötige oder wenig nützliche LLM-Aufrufe vermieden, was die Rechenbelastung drastisch senkt.
In umfangreichen Experimenten auf sechs realen Graphen, die zwei Arten von Knotentasks abdecken, konnte BOSQ die Laufzeit im Vergleich zu bestehenden GraphLLM-Ansätzen um ein Vielfaches reduzieren – oft um ein ganzes Größenordnungsmaß. Gleichzeitig bleibt die Modellleistung gleichwertig oder sogar besser als bei den bisherigen Methoden. Diese Ergebnisse deuten darauf hin, dass BOSQ die praktische Anwendbarkeit von LLMs in graphbasierten Aufgaben erheblich steigern kann.