EVE: Strukturierter Ansatz für vollständige, treue Antworten aus einem Dokument
Moderne große Sprachmodelle (LLMs) erzeugen Texte, indem sie die Wahrscheinlichkeit des nächsten Tokens vorhersagen. Diese Vorgehensweise führt dazu, dass die Modelle eher häufige Fortsetzungen wählen als vollständige, auf dem Ausgangsdokument basierende Antworten. Dadurch fehlt es an systematischen Mechanismen, die sowohl Vollständigkeit als auch Treue sicherstellen – ein Problem, das im Widerspruch zu grundlegenden Prinzipien der KI‑Sicherheit steht.