LLM‑KGFR: Neue Methode für Wissensgraph‑Fragen ohne Feinabstimmung
Große Sprachmodelle (LLMs) sind hervorragend im logischen Denken, doch bei Fragen, die umfangreiches Wissen erfordern, stoßen sie an ihre Grenzen. Der begrenzte Kontext und die parametrierte Wissensbasis führen dazu, dass LLMs bei komplexen, wissensintensiven Aufgaben oft an ihre Leistungsgrenzen stoßen. Traditionelle Ansätze, die auf feinabgestimmten LLMs oder Graph Neural Networks (GNN) basieren, sind häufig an spezifische Datensätze gebunden und skalieren schlecht auf große oder unbekannte Graphen.
Um diese Herausforderungen zu überwinden, stellt das neue LLM‑KGFR‑Framework vor, bei dem ein LLM eng mit einem strukturierten Retriever, dem Knowledge Graph Foundation Retriever (KGFR), zusammenarbeitet. KGFR nutzt LLM‑generierte Beschreibungen, um Beziehungen zu kodieren, und initialisiert Entitäten anhand ihrer Rollen in der gestellten Frage. Dadurch kann das System ohne weitere Feinabstimmung auf völlig neue Wissensgraphen generalisieren.
Für die effiziente Verarbeitung großer Graphen setzt KGFR die Asymmetric Progressive Propagation (APP) ein. Diese schrittweise Erweiterung begrenzt gezielt hochgradige Knoten, behält jedoch gleichzeitig informative Pfade bei. Durch Schnittstellen auf Knoten-, Kanten- und Pfadebene kann das LLM iterativ nach Kandidatenantworten, unterstützenden Fakten und Beweiswegen fragen, was einen kontrollierbaren Denkprozess ermöglicht.
Experimentelle Ergebnisse zeigen, dass LLM‑KGFR nicht nur starke Leistungen erzielt, sondern auch die Skalierbarkeit und Generalisierbarkeit beibehält. Damit bietet es eine praktikable Lösung für die Integration von Wissensgraphen in die KI‑gestützte Beantwortung von Fragen.