ArgRAG: Erklärbare Retrieval-Augmented Generation mit bipolarer Argumentation
Retrieval-Augmented Generation (RAG) hat die Leistungsfähigkeit großer Sprachmodelle durch die Einbindung externer Wissensquellen deutlich gesteigert. Doch in sicherheitskritischen Anwendungsfeldern stößt RAG an Grenzen: die Modelle reagieren empfindlich auf verrauschte oder widersprüchliche Informationen und ihre Entscheidungen bleiben oft undurchsichtig und stochastisch.
Die neue Methode ArgRAG (Explainable Retrieval Augmented Generation) löst diese Schwächen, indem sie die Black‑Box‑Logik durch eine strukturierte, nachvollziehbare Argumentationslogik ersetzt. ArgRAG nutzt ein Quantitative Bipolar Argumentation Framework (QBAF), um aus den abgerufenen Dokumenten ein Argumentationsnetz aufzubauen.
Im QBAF werden Argumente und deren Beziehungen (Unterstützung bzw. Angriff) mit numerischen Gewichten versehen. Durch deterministisches Schließen nach den sogenannten Gradual Semantics kann ArgRAG Entscheidungen eindeutig begründen und gleichzeitig Gegenargumente prüfen. So wird die Entscheidungsfindung transparent und prüfbar.
In zwei etablierten Faktenprüfungsbenchmarks – PubHealth und RAGuard – zeigte ArgRAG eine starke Genauigkeit, die mit der von klassischen RAG‑Modellen vergleichbar ist, und verbesserte gleichzeitig die Transparenz signifikant. Die Ergebnisse deuten darauf hin, dass ArgRAG ein vielversprechender Ansatz für sichere, erklärbare KI‑Anwendungen ist.