ProgRAG: Fortschrittliches Retrieval und logisches Denken über Wissensgraphen
Large Language Models (LLMs) zeigen beeindruckende Fähigkeiten im logischen Denken, kämpfen jedoch mit Halluzinationen und mangelnder Transparenz. Durch die Integration von Wissensgraphen (KGs) können LLMs ihre Leistung bei komplexen, wissensintensiven Aufgaben deutlich steigern – doch bleiben erhebliche Schwächen bestehen.
Zu den häufigsten Problemen zählen ungenaue Abrufvorgänge und fehlgeschlagene Schlussfolgerungen, die besonders bei langen Eingabetexten auftreten, wenn relevante Informationen verschleiert werden. Oft verlassen sich bestehende Ansätze darauf, dass das LLM selbst Beweise aus dem KG abruft und deren Angemessenheit bewertet, was zu voreiligen oder falschen Schlussfolgerungen führt.
ProgRAG bietet eine neue Lösung: Ein mehrstufiges Framework für mehrstufige KG‑Fragebeantwortung, das komplexe Fragen in Teilfragen zerlegt und die Beantwortung schrittweise ausbaut. Bei jedem Schritt sammelt ein externer Retriever Kandidatenbeweise, die anschließend durch ein Unsicherheits‑bewusstes Pruning des LLMs verfeinert werden. Abschließend wird der Kontext für das LLM optimiert, indem die teilweise Beweiswege neu strukturiert und angeordnet werden.
Experimentelle Ergebnisse auf drei etablierten Datensätzen zeigen, dass ProgRAG bestehende Baselines in der mehrstufigen KG‑Fragebeantwortung übertrifft. Die Methode liefert zuverlässigere Antworten und qualitativ hochwertigeres logisches Denken, was die Zukunft der KI‑gestützten Wissensabfrage deutlich voranbringt.